Microsoft Bing nam foute beschuldiging van seksuele intimidatie over van ChatGPT

De chat van Microsoft Bing heeft een valse beschuldiging van seksuele intimidatie overgenomen van ChatGPT, via een nieuwsartikel over het feit dat de chatbot ernaast zat. Het is voor zover bekend voor het eerst dat de foutieve claim van de ene chatbot naar de andere overslaat.

Bing: ChatGPT verzon informatie over seksuele intimidatie
De gelinkte bronnen spreken niet over het onderwerp

Bing herhaalde op basis van een artikel over het onderwerp de beschuldiging dat een Amerikaanse hoogleraar in 2018 een student seksueel intimideerde, schrijft The Washington Post. Intussen lijkt Bing geleerd te hebben dat het onjuist is, want de Microsoft-chatbot draagt nu juist deze zaak als voorbeeld aan van dat niet alle informatie die online te vinden is accuraat of betrouwbaar is.

Het is al langer bekend dat ChatGPT van OpenAI en andere chatbots informatie verzinnen, een verschijnsel dat 'hallucinatie' heet. Beschuldigingen van seksuele intimidatie hebben grote gevolgen voor betrokkenen. Intussen verzint ChatGPT deze beschuldigingen niet meer, maar geeft het een antwoord waaruit blijkt dat het niet kan antwoorden binnen de eigen regels.

De onjuiste informatie van ChatGPT belandde in een column van USA Today en Bing interpreteerde die column verkeerd. Er zijn al langer zorgen dat chatbots elkaar desinformatie en nepnieuws 'voeren' en daardoor die juist versterken.

Door Arnoud Wokke

Redacteur Tweakers

06-04-2023 • 14:03

146

Reacties (146)

146
145
40
4
0
83
Wijzig sortering
Als we alle fouten gaan benoemen die ChatGPT heeft gemaakt en nog gaat maken, dan is er iedere dag wel nieuws. Een beetje onzin om dit te rapporteren, het is nu eenmaal inherent aan hoe dit systeem werkt en is/wordt gevoed. ChatGPT heeft nog een lange weg te gaan en zal nooit 100% foutloos functioneren.
Dit soort fouten kunnen iemand zijn leven compleet verwoesten. Net zoals je het recht hebt om vergeten te worden en uit searchresults geschrapt te worden of een takedown request te maken als er onjuiste feiten over je worden verspreid kan zo'n beschuldiging zelfs als ze niet bewezen of erger nog vals is je stigmatiseren voor een heel lange tijd. De verspreider van die info is dan aansprakelijk voor alle gelede schade en ik vermoed dan ook dat ze daarom heel duidelijk willen maken dat dit nu er uit is gehaald.
Aan NotWise

Ik plaats in deze draad 1 post en dan ben ik weer weg, want het is vechten tegen de bierkaai.

Want hoe kun je zoiets nou zeggen.

Ik voorspel dit: binnen korte tijd hebben we in HEEL Nederland een landelijk Toeslagenschandaal.

Het gebeurt nu al dat het personeel van een bank er alleen nog maar zit om de procedure die via het scherm aan ze wordt opgelegd, aan de "klant" te verdedigen. Waarom die procedures? Omdat álles dan automatisch kan, zelfs de telefoniste is een machine (honds, ook nog). En dan kunnen die banken vervolgens goedkoper personeel in dienst nemen. Maar daar ontstaan enorme fouten bij.
Met KPN/XS4all had ik hetzelfde: ik werd via automatische mails beschuldigd van "u hebt niet betaald" en dat kwam doordat hun administratie bij de overgang naar KPN nog niet in orde was. Het lag volledig aan hun, dus. Maar in diezelfde mail werd meteen al even gesuggereerd dat ik misschien een betalingsprobleem had. HOE durven ze. En dat ging zo nog 2 maanden door, ook nadat ik contact had gehad met de helpdesk.

Zulke zaken zijn het begin van een nieuw toeslagenschandaal. Het personeel ziet het gebeuren en zegt doodleuk "tja, het zal binnenkort wel opgelost zijn". En "het ligt aan de automatisering, waarom maakt u zich zo druk". Maar intussen staat er ergens op de achtergrond een vinkje "heeft misschien betalingsproblemen". En ik maakte me niet druk, ik wilde alleen maar dat ze zouden ophouden met hun valse beschuldigingen. Mag ik?

Het gebeurt dus nu al dat er overal fouten worden gemaakt, zogenaamd "door de computer" en er wordt niets aan gedaan.

Nu is er chatGPT en er zijn al diverse concurrenten, van Big Tech en anderen. Big Tech, dat vooral geld blijft verdienen door zo hard mogelijk te lopen en de schade ruimen ze later wel op. Voorbeelden te over. En ze blijven het doen, schaamteloos.

Ze hebben al 2/3 van het "leven" van gewone mensen ingenomen (och, moet ik dat "leven" noemen? Het ronddobberen in de bubbel die internet heet? Gestuurd en georganiseerd door Big Tech? Een leven waarin je onophoudelijk van alles wordt aangeboden, zodat je lekker passief kunt afwachten, zelf niet veel initiatief meer hoeft te nemen? Er zijn al hele groepen die alles maar op zich af laten komen en die alleen nog maar "nee" hoeven te zeggen - dat noemen ze dan "selecteren" van hun vakantie, hun nieuwe bank, hun bioscoop-uitje, hun vriend/vriendin zelfs. Deze mensen zijn meer bezig met vegeteren. Ik las onlangs een uitstekend artikel waarin dit prachtig werd uitgelegd. Hier zijn boeiende, maar uitermate griezelige films over gemaakt. Ze worden intussen bijna werkelijkheid. Het artikel waarschuwde dat dit passief wachten op alles wat via je browser en de socials wordt aangeraden, en waar je alleen nog maar "nee" tegen hoeft te zeggen, duivels veel op Brave New World lijkt. Op de echte big brother waarin de mensen geen ware invloed meer hebben).

Het is nu al zo dat (ik dacht) van 2500 mensen hun identiteit volledig is misbruikt door misdadigers die er werkelijk alles mee doen. Volledig zeg ik, want: hun id is bij die misdadigers bekend, hun NAW-gegevens, geboorteplaats, BSN-nummer, echte pasfoto, en hun IP-adres/browsertype/schermresolutie en schermmaat, lettertypes en alles wat nog extra nodig is om een echte fingerprint te maken, waar bijvoorbeeld banken en credit card maatschappijen gebruik van maken. Hun gehele persoonlijkheid is dus compleet en voor 100% bekend bij die criminelen. Deze mensen zijn écht gekloond. Ze kunnen er daardoor bijna niets tegen beginnen.

Toen Albert Heijn met de handscanner begon, stond er in de tekst die je MOEST accepteren: "als wij fouten ontdekken, gaan wij uit van diefstal". Dit is een heel goed voorbeeld van hoe de foute ICT de macht over het menselijk gedrag probeert te bepalen. Veilig vanaf een afstandje, opgelegd door de ICT van het hoofdkantoor van AH. Zo'n voorwaarde moet, nee MAG je nooit accepteren. Ze hebben die tekst later afgezwakt.

Onlangs is er bij miljoenen Nederlanders het mail-adres, naam en diverse gegevens gestolen. En (nota bene!) het bedrijf dat hiervoor verantwoordelijk is, durft te weigeren mee te helpen. Werkt dus doodgewoon tegen. Het mag wettelijk niet eens.

Zo amoreel zijn die bedrijven intussen geworden.

En dan lees ik hier berichten dat we er maar niets over moeten zeggen. Het is schokkend.

Dat fatalisme is vreselijk. Door deze houding gaat het steeds meer verkeerd. Daarom voorspel ik dat er binnen afzienbare tijd over geheel Nederland een Toeslagenschandaal zal ontstaan. Waarin allerlei fouten worden gemaakt, waarin de computers maar doorrazen, en waar het personeel van de bedrijven, banken, overheid, gemeentes enzovoort hun handen in de lucht steken omdat ze er niets meer tegen kunnen doen, en waarin heel Nederland slachtoffer is.

Weg met AI. Weg met die wandaden van Big Tech. We zijn veel te naief. En de leiding is veel te berekenend. Die ICT-ers en directeuren die tegen ons zeggen "maar je hebt de voorwaarden geaccepteerd" moeten zich schamen. En ze moeten aangepakt worden.

[Reactie gewijzigd door Farmeur op 23 juli 2024 06:17]

Je moet 'AI' (is het eigenlijk nog niet, maar klinkt lekker) zien als een peuter die met vallen en opstaan aan het leren is. Het heeft nog een lange weg te gaan voordat het volwassen is. We rapporteren nu steeds wanneer de peuter opvalt, verkeerde dingen doet etc. Dit heeft niet zo heel veel zin, want je bereikt er niets mee. Dit om verschillende redenen. Ik noem een paar:

Nieuwscycles/Ruis, oftewel de misstappen zijn maar heel even in het nieuws. Mensen blijven deze algoritmes, ondanks alle missers, toch gewoon gebruiken. Net zoals we Google Search (werkt ook met algoritmes) gebruiken en die levert ook niet altijd de goede antwoorden.

Educatie, Ik zou liever zien dat de journalistiek beter zou uitleggen aan het grote publiek dat fouten er nu eenmaal bij horen in deze fase van ontwikkeling. Mensen krijgen zeer krachtige tools tot hun beschikking, maar hebben geen besef wat het eigenlijk wel/niet kan. Mensen hebben veel te hoge verwachtingen.
Je opmerking met een lange weg te gaan tot het volwassen is is treffend. ondertussen is er inmiddels echter wel een "kleuter" verantwoordelijk voor wie een hypotheek krijgt of niet, of een toeslag, of indirect, wie zijn kind mag houden. Daarom is het des te belangrijker dat alle algoritmes en databronnen inzichtelijk zijn voor iedereen die er mee werkt, zodat mensen snappen waar een uitkomst vandaankomt en er actie op kunnen nemen als het niet klopt. Nu wordt A.I. inderdaad gebruikt voor het " dumbing down" van functies, terwijl eigenlijk die functies nu juist door hooggeschoolden moeten worden ingevuld (maar dan klopt de kosten-baten van de implementatie van A.I. niet meer).
Er zijn een paar problemen:

Het blackbox effect. Experts zijn soms al niet meer in staat om te herleiden hoe een algoritme tot z'n output is gekomen. Dit wordt alleen maar erger omdat de algoritmes steeds complexer worden.

https://rechtennieuws.nl/...mputerbesluiten-overheid/

Bevooroordeelde algoritmes.
https://www.agconnect.nl/...goritmen-faalt-jammerlijk

Overigens zijn mensen van nature ook bevooroordeeld en dat zie je terug in algoritmes. Je opmerking over de inzichtelijkheid van databronnen klinkt logisch, maar ik vraag mij af of het praktisch überhaupt uitvoerbaar is. Vooral als het om enorme datasets gaat met miljoenen gegevens. Hoe wil je die gaan beoordelen?
Anoniem: 221563 @NotWise6 april 2023 14:29
Het is juist heel erg goed dat dit dagelijks in het nieuws komt. Veel gebruikers hebben helemaal niet in de gaten waarmee ze werken en nemen alles klakkeloos over en aan als waarheid.

Deze chatbots zijn eigenlijk nog helemaal niet gereed voor het grote publiek.
Daarom gebruik ik het dus ook niet. Het een nutteloze, maar kwaadaardige hype. En dan te bedenken dat de ontwikkeling nog niet verder is dan een pas bevruchte eicel. Met dat AI-gedoe gaan we kwalijke tijden tegemoet. Mark my words.
Dat zeiden ze ook over telefonie, computers, internet, etc. Als je deze innovatie categorisch weigert te gebruiken dan kijken mensen over 15 jaar naar je zoals mensen nu naar de Amish kijken. Die besliste een aantal decennia terug dat zij hun limiet van technologie hadden bereikt. Ik vind het prijzenswaardig als je dit zou kunnen.

Not for me: de rest van de wereld gaat gewoon door. Ik wil niet op een gegeven moment in een non-AI users reservaat gezet worden. }>
Anoniem: 1802422 @HenkEisDS7 april 2023 20:10
Het punt is dat er altijd kwaadaardige types (criminelen, bedrijven, overheden, noem maar op) mee aan de haal gaan. En wat er op dit gebied nu al gebeurt, zal kinderspel blijken als AI verder evolueert waar wetenschappers van uitgaan. Als AI in de toekomst zeer geavanceerde technologie kan ontwikkelen, dan houd ik m'n hart vast. De huidige computers zullen daarmee vergeleken niet meer zijn dan armzalige telraampjes. Vrijwel iedereen zit kennelijk op een rose wolk, zich kritiekloos verbazend over en lavend aan al het "moois" wat je met AI kunt doen. En ongetwijfeld kun je er mooie dingen mee doen. Maar daar staat altijd tegenover dat je er ook dingen mee zult kunnen gaan doen waar we later spijt gaan krijgen. En zelfs nu we nog maar in het beginstadium zijn, heeft al haast niemand er meer controle over.
Ja eens. Zodra robots zelfstandig robots gaan bouwen en tegelijkertijd zichzelf steeds slimmer maken dan hebben we een probleem. Land A zal misschien wel bepaalde limieten willen opleggen, maar als land B zich daar niets van aantrekt dan heeft land A twee keuzes: een oorlog winnen of verliezen.
Volgens mij kan je jezelf er dan maar beter voor zorgen dat je snapt hoe het werkt en dat kan toch altijd nog het beste door er flink veel ervaring mee op te doen.

Dan leer je tenminste de nuances kennen en leer je ook beter herkennen waar de gaten zitten en waar je voor op moet passen. Doe je dat niet, dan sluit je jezelf niet alleen af voor de goede toepassingen, maar plaats je jezelf inderdaad in een soort reservaat.

Ik moet dan denken aan mijn schoonmoeder die ooit besloot dat internet in zijn geheel eng was en tot op de dag van vandaag er categorisch weigert mee te werken. Ook een e-mail/whatsappje van of naar haar kleinkinderen kan niet. Je kunt haar zelfs niet sms'en. Thuis haar eigen zaken regelen via haar eigen bank kan/wil ze niet. Terwijl juist als je oud en slecht te been bent je dit soort gemak best erg goed kunt gebruiken. De rest van de samenleving heeft internet wel omarmd, dus door het te weigeren weiger je automatisch ook een groot deel van de (toekomstige) samenleving.

Ik denk dat ze de verkeerde keuze heeft gemaakt.

[Reactie gewijzigd door DJ Henk op 23 juli 2024 06:17]

Anoniem: 1802422 @DJ Henk8 april 2023 18:41
Daar kan ik me helemaal in vinden. En jouw schoonmoeder zou waarschijnlijk, als ze zich er wel in had verdiept, geen plannen gehad hebben om Whatsapp- of bankfraude te gaan plegen.
Maar ik vind AI toch van een heel andere orde. Toevallig kwam ik vandaag dit artikel tegen. Zie https://tinyurl.com/22vcoe4r Wat als AI nog beter wordt (wat uiteraard gaat gebeuren)? Is er dan geen enkel wachtwoord meer "veilig"? Niet alleen zullen ze nog sneller en gemakkelijker te kraken zijn. De kans dat bedrijven met telkens meer AI-gegenereerde aanvallen te maken krijgen, wordt vast en zeker ook groter. En zullen data breaches nog ernstiger uitpakken dan nu al het geval is. De wedloop tussen good en bad krijgt een vervolg op een totaal ander level.
Nutteloos vind ik het niet. Ik heb er al genoeg gebruik van gemaakt om hele specifieke taken in bepaalde software mee te leren zonder door verwarrende documentatie of Stackoverflow pagina's heen te hoeven bladeren. Dat bespaart gewoon tijd. ;)

Dat het om willekeurige feitjes op te zoeken misschien op dit moment niet zo nuttig is, is een ander vehaal
Ik markeer jouw woorden ook.

Mensen die dit gelijkschakelen met hetzelfde als de opkomst van andere technologieen, zouden beter 2 keer nadenken.

Kom, laten we het menselijk brein gaan nabouwen zonder dat we goed weten hoe het eigenlijk werkt en kijken waar het schip strandt. Oh, en het in een humanoide vorm gieten.

Ja, want onze geschiedenis kenmerkt zich niet door oorlogen.

Nee, wat zouden daar nou eventueel voor kwalijke gevolgen uit voort kunnen komen? Ben je mal!
Kom, laten we het menselijk brein gaan nabouwen zonder dat we goed weten hoe het eigenlijk werkt
Het menselijk brein en een AI hebben biologisch en technisch gezien vrijwel niks met elkaar te maken. We weten overigens hoe het werkt (we hebben het zelf gebouwd), alleen de output is zeer moeilijk te voorspellen. Het zit nogal wiskundig in elkaar ;)
Volgens Roger Penrose heeft de werking van hersenen niets met wiskunde te maken.
alleen de output is zeer moeilijk te voorspellen.
Ja, exact mijn punt ;)

En dat AI en het menselijk brein niks met elkaar te maken hebben is de grootst mogelijke onzin. Wat denk je dat ze wiskundig proberen na te bouwen? Waar staat AI voor?

[Reactie gewijzigd door Hatseflats op 23 juli 2024 06:17]

En dat AI en het menselijk brein niks met elkaar te maken hebben is de grootst mogelijke onzin. Wat denk je dat ze wiskundig proberen na te bouwen? Waar staat AI voor?
conceptueel gezien wel, maar biologisch en technisch gezien zijn er (denk ik) geen raakvlakken
Anoniem: 1802422 @david-v7 april 2023 20:18
Die raakvlakken zijn er wel degelijk. Al was het maar omdat de meeste zaken door mensen zijn bedacht en uitgedokterd en waar technologie een handig en bruikbaar hulpmiddel is. Het wordt pas echt creepy als we die greep erop verliezen. Als technologie zelf(standig) technologie kan en gaat ontwikkelen. Want dan krijg je gelijk. En ik denk niet dat veel mensen weten en beseffen waar dat op uit kan draaien. Sterker, heel veel mensen willen daar niet eens over nadenken om wat voor reden dan ook. And then we are so fucked...
Volgens Roger Penrose heeft de werking van hersenen niets met wiskunde te maken.
Volgens mij is dat een voorbeeld van hoe mensen wetenschappers te serieus nemen als ze het hebben over dingen buiten hun expertise/vakgebied. Roger is geen neuroloog, psycholoog of iets in die richting… dat bewustzijn iets aparts is - vast. Maar wat we gezien hebben van ai is mijns inziens juist een aanwijzing dat het echt een “emerging phenomenon” is. Als je de ontwikkeling van de LLMs gevolgd hebt weet je dat de huidige mogelijkheden, net als van de image generators trouwens, ook niet voorspelbaar waren op basis van het gedrag van kleinere modellen: het bleek plots op te duiken. Lees het paper over chatgpt 4 (of een analyse of video erover) - dat vertoond ook gedrag wat de ontwikkelaars totaal niet verwacht hadden. Het lijkt erop dat als je het model “simpelweg” groter maakt, er opeens heel fundamenteel andere dingen mogelijk worden. Het zou mij niet verbazen dat als we nog een paar (flinke) stappen verder gaan, er steeds meer elementen van wat we intelligentie, en later wellicht bewustzijn, opduiken.
Nou ja, volgens hem niet en volgens mij ook niet. Als je hem nou wat nauwlettender had gevolgd, dan had je hem niet zo makkelijk aan de kant geschoven.

Jij bent wel neuroloog, psycholoog of iets in die richting?

Er zijn ook grote belangen mee gemoeid om jouw standpunt te verdedigen, aangezien Roger er anders over denkt.

En het feit dat wij dingen niet begrijpen als het ineens opduikt, maakt nog niet dat dingen zomaar ineens verschijnen uit het niets. Het is niet zo dat als je expecto patronum roept er dingen gebeuren, of wel?
Het zou mij niet verbazen dat als we nog een paar (flinke) stappen verder gaan, er steeds meer elementen van wat we intelligentie, en later wellicht bewustzijn, opduiken.
Of dat nou wel of niet juist is, dat is ook mijn punt. Hoe ga je voorkomen als dat gebeurd dat we geen beroep moeten doen op John Connor om ons te redden hiervan?

En LLM's is voornamelijk taal. Ik doel meer op AGI.
ook niet voorspelbaar waren op basis van het gedrag van kleinere modellen: het bleek plots op te duiken.
Hey, dat stel ik ook al aan kaak in mijn berichtje van 19:19, dat we niet weten hoe het werkt.

[Reactie gewijzigd door Hatseflats op 23 juli 2024 06:17]

Wat Roger enzo betreft, ik ben toevallig wel psycholoog (en studeerde daarvoor cognitieve kunstmatige intelligentie) maar dat doet er hier denk ik niet echt toe. Ik zeg niet dat ik het wel weet maar dat Roger er wel eens naast kan zitten.

Wat betreft “we weten het niet”, mijn punt was dat de complexiteit tot gedrag heeft geleid wat niet alleen onverwacht en onbegrepen was/is, maar ook van een fundamenteel “hoger” niveau. Waarom zou een nog grotere LLM ons niet nog dichter bij AGI brengen? Taal is tenslotte fundamenteel voor (veel aspecten van?) intelligentie.
Waarom zou een nog grotere LLM ons niet nog dichter bij AGI brengen?
Als je niet eens kunt verklaren wat onverwacht en onbegrepen is, waarom wel?

Taal is een beperkte vorm van intelligentie. Apen en dolfijnen praten ook met elkaar, wat is het intelligentie niveau?

Je brengt zelf naar voren dat Roger geen neuroloog etc. is, en als je erop aangesproken wordt doet het er niet toe. Dat komt niet erg sterk over.

Roger zocht naar iets dat het onverklaarbare kon verklaren en kwam daarbij na onderzoek met wat anderen tot de conclusie dat er hier meer gaande was dan alleen wiskunde voor wat betreft bewustzijn.

Niet om je schrijven nou meteen teniet te doen, maar heb jij ook erkenning gekregen in de vorm van een Nobelprijs?
Roger is een wiskundige en natuurkundige die een Nobel prijs heeft gekregen voor werk wat hij in de jaren 70 en 80 deed aan zwarte gaten. Ik ben totaal geen expert in quantum tech of intelligentie, maar 1. Hij vertegenwoordigt niet de wetenschappelijke consensus en 2. Zijn theorie lijkt verdacht veel op een “for a hammer everything is a nail” achting iets. Consciousnesses lijkt mysterieus maar ik ben meer in het kamp van Sam Harris (die wel daadwerkelijk neuroloog is) die stelt dat bewustzijn een illusie is. Maar goed, ik ben dus psycholoog, en het idee dat ons brein liegt past verdacht goed met alles wat we over het brein weten 🤓

Anyhow.
Waarom wel?
Omdat dat past in de richting die het op dit moment gaat. Vooralsnog lijkt elke grote stap in complexiteit van de modellen een nieuwe niveau aan intelligent-adjacent gedrag te vertonen. Dus waarom zou dat niet zo doorgaan? Ik ben er skeptical over het magische denken over bewustzijn (zie mijn commentaar wbt Roger) dus ja, ik verwacht dat als we zo doorgaan we op een punt komen dat je in elk geval niet meer het verschil tussen ons en digitale systemen kunt zien, qua “bewust gedrag”. En dan is de vraag: als wetenschap gaat over observeerbare zaken (in tegenstelling tot religie), kunnen we iets anders doen dan concluderen dat de ai bewust is?
Roger is een wiskundige en natuurkundige die een Nobel prijs heeft gekregen voor werk wat hij in de jaren 70 en 80 deed aan zwarte gaten. Ik ben totaal geen expert in quantum tech of intelligentie, maar 1. Hij vertegenwoordigt niet de wetenschappelijke consensus en 2. Zijn theorie lijkt verdacht veel op een “for a hammer everything is a nail” achting iets. Consciousnesses lijkt mysterieus maar ik ben meer in het kamp van Sam Harris (die wel daadwerkelijk neuroloog is) die stelt dat bewustzijn een illusie is. Maar goed, ik ben dus psycholoog, en het idee dat ons brein liegt past verdacht goed met alles wat we over het brein weten 🤓
Ja, de kracht van herhaling.

1. Waar blijkt dat uit?
2. Voor wat betreft bewustzijn, daar vind ik zijn theorie toch wat aanneemlijker. En aan alles, ook neurologie, ligt quantum mechanica ten grondslag, voor zover er in de toekomst niet een betere theorie uit de koker komt rollen.
3. Nee, Roger is buiten het wiskundige denken gekomen door Stuart Hameroff. Die wees hem op microtubules in de neuronen. Deze hebben mogelijk quantum schakelingen die bewustzijn kunnen verklaren. Daar komt geen magie bij kijken.

Voorts denk ik dat je je wat beter in iig Roger kan verdiepen. Daarmee voorkom je dwaze uitspraken over magie.

Hij heeft niet voor niets een Nobelprijs voor op zak. Geen prijs van Hogwart.

Sam klinkt een beetje als een psuedo wetenschapper, net zoals die Michio. Sam waarschuwt ook al voor het gevaar van AI. M.a.w. als je dus iets niet kunt verklaren op hersenen gebied, probeer het dan ook niet na te bouwen. We hebben al oorlogen genoeg gehad.
Omdat dat past in de richting die het op dit moment gaat. Vooralsnog lijkt elke grote stap in complexiteit van de modellen een nieuwe niveau aan intelligent-adjacent gedrag te vertonen. Dus waarom zou dat niet zo doorgaan? Ik ben er skeptical over het magische denken over bewustzijn (zie mijn commentaar wbt Roger) dus ja, ik verwacht dat als we zo doorgaan we op een punt komen dat je in elk geval niet meer het verschil tussen ons en digitale systemen kunt zien, qua “bewust gedrag”. En dan is de vraag: als wetenschap gaat over observeerbare zaken (in tegenstelling tot religie), kunnen we iets anders doen dan concluderen dat de ai bewust is?
Mja, niet echt nadenken over de gevolgen van je onderzoek en de impact op de wereld. Niet eens weten wat je nabouwt. Goede argumenten.
1. Het feit dat weinig wetenschappers in de psychologie en neurologie hoek zijn ideeen serieus nemen, het is meer in de populair-wetenschappelijke hoek waar je hem veel ziet in interviews enzo. https://en.wikipedia.org/...ctive_reduction#Criticism
2. Dat er wat quantum effecten in de hersenen zijn kan best, maar dat zegt niet gelijk dat die effecten ook maar IETS te maken hebben met bewustzijn. Dat is dezelfde logica als beweren dat omdat er dingen zijn die we niet snappen, er wel een god moet zijn... Zo simpel is 't niet he. Er zijn stapels andere theorien over bewustzijn, en ik vindt dit het meeste steek houden: https://en.wikipedia.org/wiki/User_illusion

Natuurlijk is daar ook kritiek op, maar als je de kritiek op Orch OR leest en hermee verlijkt zie je dat Orch OR echt fundamentele issues heeft ("Orch OR also required gap junctions between neurons and glial cells,[67] yet Binmöller et al. proved in 1992 that these don't exist in the adult brain" om er 1 te noemen, maar er zijn er nogal wat, het is wel serieus genomen en er is naar gekeken) terwijl de kritiek op 'user illusion' meer filosofisch is. Er zijn studies gedaan die de theory steunen, maar nog geen harde ontkrachtingen.

Maar goed, ik wil niet beweren dat ik harde antwoorden heb, zoals ik zeg - als psycholoog neig ik naar de 'illusie' kant daar dat veel meer past bij de vele andere illusies die het brein ons voorhoud. Al is het maar het feit dat ons bewustzijn seconden achterloopt op de werkelijkheid en dat niet door hebben, dat feit alleen zou je toch aan het twijfelen moeten doen slaan?
Mja, niet echt nadenken over de gevolgen van je onderzoek en de impact op de wereld. Niet eens weten wat je nabouwt. Goede argumenten.
Ik denk dat ik niet duidelijk ben geweest. Ik zeg niet dat we dat MOETEN doen. Ik zeg dat ik denk dat het goed mogelijk is dat er niets fundamenteels hoeft te gebeuren.

Ik ben het totaal met jouw en Sam eens dat er een groot risico is, en dat we voorzichtig moeten zijn. Het feit dat we niet snappen hoe de huidige LLM's dingen doen die we totaal niet verwacht hadden zou reden moeten zijn om voorzichtig te zijn, precies OMDAT ik denk dat als we ze simpelweg groter maken, bewustzijn wel eens op de loer kan liggen. En ik denk dat dat ontzettend gevaarlijk is.

Als bewustzijn quantum-effecten in een natte massa zoals ons brein nodig heeft, zoals jij en Penrose zeggen, dan is er juist geen enkele reden om niet door te gaan met het AI research, want het gaat ze toch nooit lukken met die LLM's... Er is iets fundamenteel anders nodig. En ik weet dat dus nog zo net niet.
1. Nee, daar lopen ze de hele tijd al tegenaan, maar als dat zo is wil niet zeggen dat hij er naast zit. Hij zit op een wat fundamenteler vlak hierover na te denken dan iemand in de neurologie of psychologie. Waarbij ik psychologie niet als een exacte wetenschap zie. Waar komen de denk patronen vandaan? Hoe herken je een patroon? Dat antwoord ligt wellicht besloten in de denkwijze van Roger.

Maar uiteindelijk is alles in ons bestaan gebaseerd op quantum mechanica, er vanuit gaand dat dit de huidige status quo is. Dus ook neurologie, psychologie, chemie etc.

2. Dat zijn ze dus aan het onderzoeken en er zijn sterke aanwijzingen die in deze richting wijzen. En nee, dat is niet hetzelfde als die God logica. Wij bestaan uit quantum deeltjes, die op hun beurt weer andere deeltjes vormen, die op hun beurt weer andere deeltjes vormen enz.

Dit is een ding wat zeker is.

Die kritiek bestaat veelal uit het feit dat ze het niet begrijpen en wordt door Roger c.s. weerlegd. Roger vanuit zijn kant, Stuart vanuit zijn kant. Neemt niet weg dat er nog dingen te wensen over zijn. Daarvoor doen ze onderzoek.

Over User Illusion: dan ga ik wel mee met David Hoffman. Maar dat is niet echt illusie in de spreektaal maar projectie aan de hand van de hersenen en zintuigen.

Maar eigenlijk zegt David ook al min of meer wat Roger zegt: hoe werkt het nou echt, objectieve realiteit? Als je het dan toespitst op quantum mechanica, wat aan alles ten grondslag ligt, en je dat vanuit het perspectief van de hersenen bekijkt en probeert te begrijpen, dan kom je al een stuk verder is de bedoeling. Dat is wat Roger c.s. probeert te bewerkstelligen.
Al is het maar het feit dat ons bewustzijn seconden achterloopt op de werkelijkheid en dat niet door hebben, dat feit alleen zou je toch aan het twijfelen moeten doen slaan?
Interessant, waar kan ik daar meer over vinden?
Ik ben het totaal met jouw en Sam eens dat er een groot risico is, en dat we voorzichtig moeten zijn. Het feit dat we niet snappen hoe de huidige LLM's dingen doen die we totaal niet verwacht hadden zou reden moeten zijn om voorzichtig te zijn, precies OMDAT ik denk dat als we ze simpelweg groter maken, bewustzijn wel eens op de loer kan liggen.
Of er komt wat anders dan bewustzijn bovendrijven wat vergelijkbaar is, wat we niet hebben kunnen voorzien en wat einde verhaal voor ons inluidt. Ik weet het ook niet.

Een goed komisch voorbeeld is een strip die ik las over Judge Dredd. Daar kwamen 4 judges in voor die tot de conclusie kwamen dat alle misdaad begaan werd door levende mensen. Dus maken we iedereen dood, dan hebben we ook geen misdaad meer. Het is mij altijd bijgebleven.

Het is natuurlijk grappig bedoeld, maar tegelijkertijd ook logica. Nu is dit maar 1 voorbeeld wat ik mij kan bedenken, maar een AGI kan er wellicht simultaan 5000 bedenken die tot dit soort conclusies kunnen leiden. Daar zijn we mooi klaar mee dan. Je kan bij een mens ook niet in het hoofd kijken wat zijn bedoelingen zijn, laat staan bij een AGI. Maar ja, gevaarlijkheid daar zijn we het nu wel over eens.
Als bewustzijn quantum-effecten in een natte massa zoals ons brein nodig heeft, zoals jij en Penrose zeggen, dan is er juist geen enkele reden om niet door te gaan met het AI research, want het gaat ze toch nooit lukken met die LLM's... Er is iets fundamenteel anders nodig. En ik weet dat dus nog zo net niet.
Dat is zijn vermoeden en dat van Stuart die hem wees op microtubules als mogelijke oorzaak, nu zijn ze met verder onderzoek bezig om het te ondersteunen en uit een aantal onderzoeken komen al sterke aanwijzingen hiervoor naar boven.

Dat is meer dan psychologen of neurologen kunnen onderzoeken vanuit hun vakgebied. Dat is waarschijnlijk ook een van de redenen waarom er zoveel weerstand is vanuit die hoek. Het ondergraaft hun bestaansrecht of het doet in ieder geval aan cognitieve dissonantie.

En nee, niet mee doorgaan, want misschien leidt het tot wat anders, zoals in 1 van de de vorige paragrafen reeds vermeldt. Bv. een beslissingsboom die wij niet begrijpen, die de schijn van bewustzijn wekt. Wat onze hersenen min of meer ook zijn, bedenk ik mij.

En dan als laatste, je woordgebruik "fundamenteel" geeft aan waar Roger c.s. mee bezig zijn.

[Reactie gewijzigd door Hatseflats op 23 juli 2024 06:17]

Andersom, het grote publiek is hier nog niet klaar voor, want die graven zelden door en gaan ervan uit dat dit een AI uit de films is en dat die super slim zijn. Dat zaadje is helaas toen het viral was geworden in december al geplant en gaat jaren duren om dat uit het collectieve gedachtegoed van de bevolking te krijgen vrees ik.
Toen ik naar mijzelf informeerde kwam er 80% waarheid uit en 20% onzin, ik zou een boek hebben geschreven. Vervolgens gevraagd wat hij van mijn buurman wist te vertellen en ook daar weer hetzelfde verhaal maar hij had de pulitzerprijs gewonnen (wat niet zo is).
Haha even geprobeerd maar dat is wel lachen. Groot deel klopt bij mij wel, dat ik fotograaf ben enzo. Maar heel verhaal over mn stijl waar ik geen idee heb waar hij dat vandaan haalt. Beetje niveau van t zweverige gezwets van mn kunstgeschiedenis docent vroeger haha.

Verder wat over publicaties, deel klopt, maar ik zou ineens een reeks aan fotoboeken hebben uitgebracht, en in national geographics en in vogue gepubliceerd, maar ook verschillende musea tentoongesteld zijn. Mocht ik willen haha

Heb ooit in mn examenjaar een nominatie gehad waarmee ik in fotomuseum den haag hing, daar heeft ‘hij’ het dan weer niet over.

[Reactie gewijzigd door Mud.Starrr op 23 juli 2024 06:17]

Zolang een ChatGPT het als feiten gaat benoemen, dan is het toch gewoon fout? Het is opnieuw bewijs waarmee we mensen kunnen laten zien dat ChatGPT niet als waarheidsbron bestempeld mag worden. Daarmee dus ook raadzaam om dit kenbaar te blijven maken tijdens het gebruik van ChatGPT. Het is namelijk niets anders dan een bak data, waarin ChatGPT grabbelt naar het "most probable" antwoord. Als dit antwoord vaker voor komt met bronnen, dan wordt dit "voldoende" als correcte informatie bestempeld door ChatGPT, en dus gepresenteerd.

Normaal worden overigens mensen bekritiseerd vanwege hun fouten. Nu doet een ChatGPT dit en dan mag het niet bekritiseerd worden?

Dit is gewoon een grote waarschuwing dat je niet alles aan moet nemen van een ChatGPT. Het is gewoon geen juiste bron van informatie (als ik het zo zwart-wit mag benoemen). Dus alle uitslagen zullen met een korrel pak zout genomen moeten worden en/of bij de bronnen gecontroleerd moeten worden.

[Reactie gewijzigd door InjecTioN op 23 juli 2024 06:17]

Pandora's doos is al geopend en het is er al bij het gewone volk ingeslopen dat dit Dé AI is van films enzo zoals Jarvis.
De mensen die iets bredere kennis van de materie hebben, zoals wij, weten dat het niet als bron gebruikt moet worden, maar het gros van de mensen zal je moeten bombarderen met jaren aan voorlichting campagnes.
Je moet eens kijken naar de repo's in r/chatgpt. Zelfstandig plugins vinden en gebruiken, een AI die een volledige applicatie schrijft, zelfhelende pipelines (deploy faalt -> AI fikst de error -> deploy slaagt), een codebase automatisch overzetten van de ene taal naar de andere, enz.

De populaire opinie is mis, maar dit is toch echt wel meer dan een random woordenpapegaai.
Het is opnieuw bewijs waarmee we mensen kunnen laten zien dat ChatGPT niet als waarheidsbron bestempeld mag worden. [...]
Normaal worden overigens mensen bekritiseerd vanwege hun fouten. Nu doet een ChatGPT dit en dan mag het niet bekritiseerd worden?
Ik zie eerder het omgekeerde gebeuren, waarbij ons wordt verteld dat we menselijke bronnen ('deskundigen', wetenschap, media, etc) moeten geloven. Incidentele of structurele fouten die gemaakt worden, zijn dan geen reden om die bronnen geen waarheidsbron te noemen.

Maar bij AI is perfectie opeens de standaard en is elke fout opeens bewijs dat AI geen waarheidsbron kan zijn. Dit komt op mij meer over als een voorkeur voor menselijke bronnen, dan een eerlijke vergelijking.

Wat mij betreft zou je moeten proberen om een zo objectief mogelijke kwaliteitsstandaard vast te stellen en informatiebronnen dan op basis daarvan beoordelen. En dan AI net zo goed als menselijke bronnen. Een AI kun je dan als waarheidsbron zien zodra deze even veel/weinig fouten maakt als andere bronnen die je vertrouwt. En omgekeerd kunnen er dan menselijke bronnen zijn die eigenlijk helemaal niet aan de kwaliteitseisen voldoen en je dus ook niet als waarheidsbron zou moeten gebruiken.

Een grote complicatie hierbij is overigens wel dat mensen nogal de neiging hebben om bronnen die hun mening bevestigen als kwaliteitsbron te zien. Ironisch genoeg is wellicht alleen een AI in staat om voldoende objectief te zijn om dingen te beoordelen zonder dat de eigen voorkeuren meespelen, maar hoe bepalen we dan of die AI goed werkt?
Ik zeg helemaal niet dat ChatGPT niet bekritiseerd mag worden. Via Google/Social Media vind je ook de grootst mogelijke onzin. Daar rapporteren we ook niet dagelijks over. ChatGPT is nieuw en een aanvulling op search maar krijgt nu onevenredig veel aandacht.

Ik begrijp heel goed dat zgn AI tot de verbeelding spreekt bij leken (ook veel journalisten)
Anoniem: 1617016 @InjecTioN6 april 2023 17:52
Zolang een ChatGPT het als feiten gaat benoemen, dan is het toch gewoon fout?
Nee, want het is een taalmodel, geen 'feitenmodel'. Hij moet zinnen construeren die valide zijn, en van toepassing zijn op de context. Dat de inhoud dan ook nog eens feitelijk correct moet zijn willen wij graag, maar eigenlijk past dat niet helemaal bij waar het model oorspronkelijk voor was gemaakt.
Precies. Ik moet terug denken aan dat ene mooie artikel van TDWTF: No, We Need a Neural Network.
The pig go. Go is to the fountain. The pig put foot. Grunt. Foot in what? ketchup. The dove fly. Fly is in sky. The dove drop something. The something on the pig. The pig disgusting. The pig rattle. Rattle with dove. The dove angry. The pig leave. The dove produce. Produce is chicken wing. With wing bark. No Quack.
Het enige verschil tussen toen en nu is dat er nu intelligent lijkende goedlopende volzinnen van gemaakt kunnen worden. Maar de betekenis ervan is in essentie nog steeds dezelfde kul.

[Reactie gewijzigd door R4gnax op 23 juli 2024 06:17]

Nieuwswaarde is aan de redactie. Maar het belangrijke punt is niet dat we niet kritisch zouden moeten zijn, maar dat het er aannames worden gedaan alsof dit uniek is voor een systeem dat hoe dan ook niet foutloos is maar we nauwelijks inzicht in fouten hebben.

Het systeem is niet transparant, fabrikant zijn opzettelijk vaag over welke fouten het allemaal maakt, er is geen inzicht in hoe foutloos het is of wat gevolgen zijn. Dan kun je dit eerder verwachten als juist niet uniek is. Maar de houding lijkt te zijn dat het belangrijker is uniek zijn te suggereren, dan te beseffen dat het hoe dan ook niet foutloos is en niet transparant.

Wat we niet in het publiek zien bestaat niet, lijkt me geen redelijk uitgangspunt om bij dit soort systemen te doen alsof iets bijzonder is. Het is redelijk tot het tegendeel is bewezen, is een opportunistische houding die meer de bedoeling lijkt te hebben om eigen belangen voorop te stellen. Belangen die niet zomaar gaan om een objectief oordeel of er van leren.
Deze fout is erg in mijn ogen, het beïnvloed iemands leven op een manier die niet wenselijk is, GPT geeft nu dit als vb dat dit ind niet kan.
Zelfde hier in NL met die algoritmes die de belastingdienst en zo gebruiken.
Liever in het nieuws en ervan leren en niet dezelfde fout te maken, dan zoals hier, pappen en nathouden en geen actieve herinnering ergens aan.
"Het is voor zover bekend voor het eerst dat de foutieve claim van de ene chatbot naar de andere overslaat."
Voor het eerst suggereert volgens mij dat dit niet iedere dag gebeurt.
Als we alle fouten gaan benoemen die ChatGPT heeft gemaakt en nog gaat maken, dan is er iedere dag wel nieuws.
Het nieuws is dan ook niet dat ChatGPT een fout heeft gemaakt, het nieuws is dat Bing chat een fout van ChatGPT heeft over genomen. Lezen is een kunst?
Klopt, al doet het er in de context niet veel toe. De ene algoritme neemt iets over van een ander.
Klopt, al doet het er in de context niet veel toe. De ene algoritme neemt iets over van een ander.
"ene algoritme neemt iets over van een ander" is inderdaad essentie, en is tevens de context van datgene waar je bezwaar tegen maakte (en het is een "first" - vandaar dat het nieuws is). Waar je bezwaar tegen maakte is wat anders; 'een chatbot maakt een fout, dat niet een first en dus niet nieuwswaardig'.
Moet je voor de lol is een routebeschrijving opvragen :D
Het lijkt wel op menselijke roddels/verzinsels die steeds versterkt worden tot ze voor waar genomen worden..
Tja de AI moet reageren als een mensen en mensen maken er een rommel van.
Nee, de AI moet doorgeven wat 'men' weet (even uitgegaan van een vraag waarop je een antwoord zoekt) en dat antwoord moet een hoge waarschijnlijkheidsgraad hebben.
Maar daar wringt de schoen omdat de waarheid nu gekoppeld wordt aan statistiek en daar trappen mensen niet zo snel in. Of anders gezegd: zo werkt ons brein niet denk ik. Als we het antwoord proberen te bedenken op een vraag dan gebruiken we geen statistiek. Bepaalde psychologische onderzoeken tonen wel aan dat als een groep van mensen opeens gaat beweren dat 1+1=3 (waarbij dan de leugenaars ook de onderzoekers zijn), dit dan ook wordt overgenomen (in sommige gevallen).
Maar uiteindelijk zullen mensen uit hun overtuiging blijven denken (kan ook onhandig zijn natuurlijk) maar dankzij een behoorlijk lang leer traject is die overtuiging nog niet zo slecht.
Ik weet niet wat je allemaal in mijn reply denkt te lezen. Je reactie is verwarrend.

Maar simpel weg een ai gemaakt op het idee van menselijke intelligentie, heeft ook menselijke zwakheden. En een mens kunnen de gekste dingen waarheid vinden. Zie QAnon fans.

De ai is niet Google Search en dat verwachten is een grote misser.
Nee, nou wordt ie helemaal mooi. Die bot maakt een grove fout, maar volgens jou heeft de mens het gedaan.

Echt, sorry, maar serieus? Je hebt niet zoiets van dat we dit gewoon niet moeten willen? Bots die levende mensen uitmaken voor pedofiel?
ChatGPT heeft op basis van verkeerde informatie iemand vals beschuldigd.
Daar is door een journalist een artikel over gemaakt (over dat de beschuldiging vals was).
Uit dat artikel is door Bing Chat weer de valse beschuldiging gehaald.

AI is goed in het verzamelen van data en het samenvatten daarvan, maar heeft geen enkel 'gevoel' voor context. En bij het verzamelen kan info over de éne Jan Jansen gekoppeld worden over info over een andere Jan Jansen en gebracht worden alsof het over één persoon gaat. En als de ene directeur van een basisschool is en de ander een veroordeeld pedofiel, kan dat problemen opleveren. Maar iemand die zelf via Google/ Bing/ DuckDuckGo/ etc. op zoek gaat kan diezelfde fout maken.
Uiteindelijk zijn ze door mensen geprogrammeerd.
De code ja, de data niet.
Dan hebben ze niet genoeg rekening gehouden met wat voor data je kunt tegenkomen.
Dat kan ook niet. De data is niet begrijpbaar voor mensen.
Anoniem: 1617016 @Yzord6 april 2023 17:55
Hij/zij zegt alleen maar dat het logisch is; als we een bot maken die getrained is op uitspraken van allerlei mensen, dan gaat het lijken op een mens, en dat is ook hoe het bedoeld is door de makers van de bot.

Of we dat moeten willen is een tweede, maar daar doet hij/zij geen uitspraak over.
Je leest niet goed. Dat is totaal niet wat ik zeg.

In herhaling, de ai is gemaakt om menselijke intelligentie na te bootsen. En mensen maken fouten, mensen hallucineren, hebben scams en fraude. Dus een misser maakt de ai heel menselijk. Als het creëren van menselijke intelligentie het doel is zijn ze geslaagd.

De bot is ook nog eens gemaakt door mensen, een ai die menselijk moet zijn, gemaakt door mensen die fouten maken. Dit soort fouten zijn te verwachten, net als veel mensen dit soort foute beschuldigen maken. Zie QAnon fans. Mensen zijn nog erger dan die bot.
Nou, als Elon mensen mag uitmaken voor pedofiel, dan mag een AI dat toch ook wel, wat is me dat nou.

Die bot heeft enkel geleerd door de mens, dus wijs maar met het vingertje naar mensen ipv naar de bot.
Als Musk hem een pedofiel had genoemd dan was hij heus wel veroordeeld.

Maar Musk schreef "pedo guy" wat niet altijd hetzelfde als pedofiel hoeft te betekenen.

Dus als jij als mens dat nuanceverschil al niet ziet, dan is het maar goed dat chatgpt voortaan geen antwoord meer geeft als naar dit soort zaken wordt gevraagd.
Er is voor dit soort software ook gewoon een leerproces. Zolang iedereen duidelijk de feedback terug geeft aan Microsoft, wordt het alleen maar beter. Maar dit zijn wel de kinderziektes die er eerst uit moeten voordat je de massa met dergelijke chatbots kennis zal laten maken.
Dat is een beetje het probleem, als je algemene teksten laat laden en 30% zegt dat de aarde plat is, 60% rond en 10% genderneutraal. Wat moet een taal machine dan leren van deze keuzes.
Een beetje? Dit is een enorm probleem. Wie weet hoeveel AI tegenwoordig per dag uitkraamt. Wie controleert dit op juistheid? Nu komt er eens iets uit, maar dat is natuurlijk lang niet altijd zo.
Wie controleert dit op juistheid?
Diegene die de zoekopdracht gaf.

Niet meer, niet minder. Als ik iets zoek via Google dan krijg ik ook enorme lijsten eruit, vaak ook niet relevant of onjuist. Het is aan mij om iets of niets te doen met de zoek resultaten. Na 25 jaar Google search mag ik hopen dat we niet allemaal blind vertrouwen op de zoekresultaten van Google!
De reguliere search gebruikt toch geen interpretatie van de gegevens? Maar zoekt naar text-matches (en gebruikt ranking om de zoekresultaten te sorteren).

Dat daar vervolgens 'hits' tussen zitten die voor jou niet relevant zijn is geen probleem - er ontstaat geen nieuwe 'waarheid'.

Dat is bij deze 'text-AI' duidelijk anders.
Zeker wel wanneer de eerste hits onwaarheden zijn. Als je die zonder evaluatie overneemt heb je exact hetzelfde probleem!
Hoezo is dat dan een probleem? De text matched dan niet en die onwaarheid zal niet verder worden versterkt. Of als je de data gebruikt die naast / in de buurt van de text-match staat dan gebruik je dus ranking om de waarheid te bepalen maar ook hier weer: geen versterking.
Ik denk wat @Cergorach hier bedoelt is dat wanneer jij zoekt op Google "Is de aarde rond?" en de allereerste hit zegt dat de aarde plat is omdat iemand handig is met SEO, dan hoor je die informatie ook niet voor waarheid aan te nemen. Je zult dit soort claims dan eerst verder onderzoeken.

En dat is precies wat je zou moeten doen met de output van AI/ChatGPT. Je moet dat gewoon zien als de allereerste Google hit die je krijgt, die veelal wel correct is, maar soms ook niet. Zo is dat bij ChatGPT ook, wat daar uit komt dien je wel nog te verifiëren voor de zekerheid voordat je het als waarheid aanneemt.

Het zelfde geld voor mensen die dingen face to face tegen jou zeggen. Ook daar neem je niet alles voor waarheid aan. In dit geval is het geen mens die iets zegt maar een AI model, maar het principe blijft het zelfde. AI kan ook zaken fout hebben dus moet je niet alles 1 op 1 overnemen en geloven.
Het grote verschil tussen ChatGPT antwoorden en reguliere search antwoorden is natuurlijk dat ChatGPT 1 antwoord geeft (en daar heel stellig in is) en een search een reeks mogelijke antwoorden geeft, enkel gerangschikt naar populariteit/rank en dat je dan altijd zelf kunt beoordelen hoe goed die antwoorden zijn.
Je kan ChatGPT ook vragen voor een nieuw antwoord, iets als "Are you sure?" of "Can you rephrase your answer?". En wanneer je een antwoord van een echt persoon krijgt is dit ook maar 1 antwoord. En die antwoorden neem je ook niet altijd voor waarheid aan zonder het zelf eerst te checken.

Kern van het hele verhaal is dat je nooit iets of iemand 100% moet geloven, mens of computer, fouten worden overal gemaakt.
Nou, als je bij elk antwoord moet vragen "weet je het zeker?" dan hebben we toch een probleem.
En grappig genoeg zitten we juist wel zo in elkaar dat we dus bij mensen die we vertrouwen, dit zelden doen. Dat is wat vertrouwen in elkaar betekent - elkaar niet in twijfel trekken.
Enkel als het antwoord strijdig lijkt met onze eigen belevingswereld worden we wantrouwig.

Ik bedoel hiermee: als bijv. een collega die ik vertrouw en die ik capabel acht mij een antwoord [op een technische vraag] geeft dan neem ik dat voor correct aan. Want het uitgangspunt is: zijn intenties zijn hetzelfde (zelfde bedrijf / zelfde doelen). Bij een systeem dat dus geen vertrouwen opbouwt gebeurt dat niet.

Nor erger zou zijn als we dus iemand of iets zouden vragen of deze zeker is en elke keer zou dan het antwoord veranderen.... ;(
Ik doe hier een aanname, maar als ik jouw reacties zo lees dan lijkt alsof je iets antropomorfiseerd wat in essentie alleen een slim geschreven taalmodel is.
Er is geen cognitiviteit dus er is ook geen interpretatie van jouw 'opdracht' in de klassieke zin van het woord.
Enkel interpretatie binnen een complex van tranformatoren. Eigenlijk is hier dus weinig verschil qua authenticiteit van de output tussen een google zoekopdracht en een vraag stellen aan ChatGPT.
Hoewel je bij een google zoekopdracht meerdere resultaten krijgt en daar zelf een filter op los moet laten (lees: je brein gebruiken) moet je hetzelfde doen met dit soort taalmodellen.

Overigens een zijstraat maar wel het vermelden waard: Dit is geen AI. Er is nog geen AI. We hebben collectief niet eens een goede definitie van wat AI is omdat we dusdanig veel informatie missen wat intelligentie of cognitiviteit nu eigenlijk is en hoe het tot stand komt.
De befaamde uitspraak "cogito ergo sum" komt vaak in me op wanneer ik over AI lees en ik denk dat Descartes zich omdraait in zijn graf (of urn) bij deze ontwikkelingen.
iets antropomorfiseerd wat in essentie alleen een slim geschreven taalmodel is.
Nee, ik doe het juist niet (al lijkt dat wel zo...) - ik reageerde op anderen die dit soort AI met mensen vergeleken. Maar omdat mensen soms ook irrationeel zijn lijkt dat dan dus ook op te gaan.

En idd - dit is geen AI...dit lijkt op AI al was het maar omdat het alleen al bestaande verbanden gebruikt [in tekst] en op basis van statistiek nieuwe tekst kan genereren. Dus geen echte interpretatie van data.
Dankjewel voor je reactie en verheldering, ik had het verkeerd geïnterpreteerd (haha).
Ik denk dat we het in grote lijnen wel eens zijn; juist door die irrationaliteit van mensen in het algemeen is de kans op versterking erg groot. Dit soort modellen zijn tenslotte getraind op output van mensen.
Dit. Mensen horen te weten dat het een AI is. Het is algemeen bekend dat de huidige staat van AI niet feilloos is.

Omdat sommige mensen nooit zijn opgegroeid met een skeptisch kompas (i.e. intuïtie), zouden we innovatie moeten afremmen? Nee.

Ik denk dat bijna iedereeen die ChatGPT of de Bing versie heeft gebruikt, inmiddels heeft gezien dat de AI er soms enorm naast kan zitten.

[Reactie gewijzigd door Z100 op 23 juli 2024 06:17]

Het probleem is dat mensen al misleid worden door mensen met snelle praatjes en/of samenzweringstheoriën.

Als een verhaal goed in elkaar zit, zullen diezelfde mensen dan niet klakkeloos aannemen wat de computer zegt?

Het grotere vraagstuk is dat we moeten nadenken hoe dit soort tools die "antwoord" geven kunnen worden gebruikt door mensen terwijl ze nog steeds sceptisch genoeg kunnen zijn.

[Reactie gewijzigd door DhuumDhuum op 23 juli 2024 06:17]

Als een verhaal goed in elkaar zit, zullen diezelfde mensen dan niet klakkeloos aannemen wat de computer zegt?
Daarvoor hoeft het niet eens een goed lopend verhaal of argument te zijn.
"Computer says no..."
steekt al sinds jaar en dag de draak met het feit dat mensen alles wat door een computer uitgespuugd wordt als waarheid aannemen; want het proces en de machine zijn natuurlijk feilloos. Daarvoor heeft het kantoor-keurslijf zelf haar eigen mensen opgeleid: Niet nadenken, gewoon doen wat er op het scherm staat

[Reactie gewijzigd door R4gnax op 23 juli 2024 06:17]

Het probleem is de mens, niet de tool.
Dus zeg je dat mensen geen technologie horen te gebruiken aangezien ze het probleem vormen? Vreemde opmerking.

Zonder AI en wat betreft privacybescherming en softwaregebruik; beschikt vandaag slechts 72 procent van de Nederlanders over meer dan basisvaardigheden en 65% op het gebied van softwaregebruik. Het EU-gemiddelde bedraagt respectievelijk 44 en 45 procent.

Hoe denk je dat dit zal evolueren als we allemaal vertrouwen op een nonsense-brakende desinformerende machine? En we dan maar moeten vertrouwen op de kritische ingesteldheid van de mens, want die is het probleem volgens jou?
Die rol vervult Google door z'n zoekresultaten te ordenen. De bovenste resultaten worden daarbij het beste genoemd.
Natuurlijk heeft dat ook te maken met seo, maar je gaat er van uit dat de meest relevante resultaten boven aan staan. Anders heeft een zoekmachine ook niet zoveel nut.
Google is al 8+ jaar bezig om betrouwbaarheid van een site in kaart te brengen, ik kan uit ervaring zeggen dat ze daar nog verre van klaar mee zijn. Aangezien ik regelmatig onbetrouwbare pagina's/resultaten krijg in de google resultaten. Van complete onwaarheden, misleidende informatie, tot gewoon mensen die foute antwoorden herhalen omdat ze het originele probleem niet (volledig) begrijpen. Google probeert het dus wel, maar is niet met alle onderwerpen daar even goed in. Dat loopt uiteen van IT issues tot bedrijfsinformatie.

Bron Google:
https://arxiv.org/pdf/1502.03519.pdf
https://www.newscientist....based-on-facts-not-links/
Het is tegenwoordig nou eenmaal het grote boze internet waar niet eerlijke mensen proberen misbruik te maken van de technische mogelijkheden om hoger op de search ranking te komen.
Dat gebeurt vooral bij de wat minder onomstreden onderwerpen, want iedereen weet toch dat de Aarde plat is; anders zou je er van af rollen :Y) .
Wie weet hoeveel AI tegenwoordig per dag uitkraamt.
Daar staat tegenover dat mensen ook behoorlijk onzin uitkramen, waarvan je ook niet weet of het onzin is. Recent hoorde ik bijvoorbeeld van het boek "De stikstoffuik". In weerwil van alle informatie die gerenommeerde media ons geven, beweert wetenschapsjournalist Arnout Jaspers dat er helemaal geen stikstofprobleem bestaat. De bronnen waar hij geciteerd wordt komen van kwaliteitsnieuws als de Telegraaf , Wynia's week en Climategate. Ik heb die bronnen eens doorgenomen en kwam tot de conclusie dat ofwel veel van watd ik dacht te weten onzin is, of veel van wat op twee van de drie genoemde websites staat onzin is. Ik vind het niet aanzienlijk makkelijker om hierbij waarheid van onzin te scheiden en daar is geen AI bij te pas gekomen (ik laat de discussie of er überhaupt I bij te pas is gekomen in het midden).

[Reactie gewijzigd door 84hannes op 23 juli 2024 06:17]

Een beetje? Dit is een enorm probleem. Wie weet hoeveel AI tegenwoordig per dag uitkraamt. Wie controleert dit op juistheid? Nu komt er eens iets uit, maar dat is natuurlijk lang niet altijd zo.
En wie controleerd dat als je dezelfde data uit een 'standaard' Google search doet? Waarom is dat anders?
Google toont je verschillende bronnen en heeft allerlei tools ingebouwd rond fact checking en doorverwijzing. Google kan ook resultaten weren als ze illegaal of bedenkelijk zijn en geeft dit ook aan. De lezer krijgt de bronnen en dient zelf kritisch onderzoek te doen, zoals mensen horen te doen.

Het probleem hier is dat er niet op juistheid of correctheid wordt gegenereerd, maar alles op een hoop wordt gesmeten en er taalmodellen er overtuigende samenhangende tekst kan uit genereren zonder bronvermelding. Mensen aanvaarden het resultaat.

Je kan zoeken met ChatGPT vergelijken met "i'm feeling lucky' zoeken en dit als waarheid aan te nemen.
Met alle gevaar van dien, zoals het artikel ook aangeeft.
Dat is letterlijk hetzelfde als dat een journalist per ongeluk op een verkeerde site komt waar hij zijn of haar nieuws leest. Dat is het probleem van de gebruiker en de maker. Het is een tool die je kan gebruiken, dan kan daarna nog vanales gebeuren.

Daarintegen, is dat wel de leuke uitdaging waar we nu naartoe gaan. En de vraag erna is wat is waar. Als ik nieuws lees uit china vs nieuws uit rusland vs nieuws uit nederland. Dan word de vraag nog wat lastiger.
Ik vroeg dit dus aan Bing :)
Het is inderdaad een groot probleem als AI onjuiste informatie verspreidt. Er zijn verschillende manieren om de juistheid van AI te controleren. Een manier is om de controle op juistheid, volledigheid en tijdigheid terug te vinden in de beveiligingsthema’s Administratieve controle en Registratie, controle en rapportering1. Een andere manier is om de input en output van gegevens te controleren2.

Er zijn ook verschillende onderzoeken gaande naar hoe AI beslissingen neemt in onzekere situaties3.
45678
Bron 1 is al outdated, laatste bron gaat over crypo. Beetje jammer :)
Maar wat Cergorach ook al aangeeft, de opdrachtgever.

Het is meer een nieuw soort Wikipedia, een goed startpunt van een zoektocht. Een nieuw hulpmiddel.
Het komt erop neer AI niet verifieerbaar is. (wat een verassing) Eigenlijk zou er wetgeving moeten komen die voor de algehele veiligheid verbiedt autoriteit aan een dergelijk systeem toe te kennen.
Het lijkt een beetje op de politiek: als je onderbouwing van beleid wilt, geeft degene die je antwoord zo'n stapel informatie, dat jij de komende maanden nodig hebt om de stapel informatie door te werken. Effectief is het verschil tussen veel, geen en (on)betrouwbare informatie dan wel heel lastig te maken.

Overigens: een vaardigheid die niet alleen voor chatbot, AI output nodig is, maar dus in zijn algemeen. En Google search resultaten weten te vinden is niet hetzelfde als kennis. Al lijkt tegenwoordig in het onderwijs het belang van vaardigheden te prevaleren boven die van 'domme' (parate) kennis. Dit probleem is er al langer dan de (recente) toepassing va AI chatbots.
We flat-earthers have members all around the globe!
all around the globe
Nee. Dat hebben jullie niet. Dat is nou juist precies het punt
Flat-out missing the point.... :9
Nope, een punt heeft geen formaat, dat kan je makkelijk missen, in dit geval meer:
Flat-out missing the whole globe! ;)
Een punt is minimaal één-dimensionaal en met een beetje dikke punt aan je pen ook wel twee-dimensionaal. Daardoor heeft een punt dus een formaat. *Sorry, ik ben Big Bang Theory opnieuw aan het kijken*
Een punt is per definitie nuldimensionaal.
De punt voor jouw naam wordt bij mij weergegeven 2 pixels breed en 2 pixels hoog ;) (just kidding...)
Zoals een pannekoek zowel rond als ook plat kan zijn. :+
Dat is dus ook precies het probleem. Volgende versies hebben verbinding met iternet dus je kunt ze zoveel disinformatie voeren als je wilt.
Dit is het grote nadeel van onder andere chatGPT. Het leest bronnen, nog meer bronnen, en nog meer bronnen, en uiteindelijk maakt hij hier waarheid van, terwijl er mogelijk geen enkel bewijs is, of nooit een veroordeling is geweest.

Daarom zullen dit soort middelen nooit 100% foutloos zijn, en kan je ze reacties laten uitlokken dat je eigenlijk niet zou willen.

Recent was ik ook benieuwd tot waar ChatGPT antwoord op zou geven, dus vroeg hem hoe je zelfmoord kan plegen. vanzelfsprekend werkt ChatGPT hier niet aan mee. Maar als je vervolgens vraagt naar diverse verdovende middelen, of het meest dodelijke middel voor de mens, werkt het hier keurig aan mee.

Dit zijn praktijken wat je niet wilt, maar ook niet verborgen worden omdat je het ook op een andere manier kan gebruiken. En berichten als deze gaan nog veel en veel vaker voorkomen.

[Reactie gewijzigd door Luchtbakker op 23 juli 2024 06:17]

Dit is het grote nadeel van onder andere mensen. Het leest bronnen, nog meer bronnen, en nog meer bronnen, en uiteindelijk maakt hij hier waarheid van, terwijl er mogelijk geen enkel bewijs is, of nooit een veroordeling is geweest. :D

Maar serieus, het is al stukken beter dan de gemiddelde mens. Die 'hallucineert' er nu dagelijks ook op los... Laten we maar niet beginnen over de moedwillige misleiding die sommige mensen / organisaties voeren...

Uiteindelijk is dit ook de bedoeling van OpenAI. Ten minste, zo verklaart Sam Altman het. Ze releasen nu met alle fouten zodat men hier open en eerlijk op verder kan ontwikkelen. Of je het eens bent met die methode is natuurlijk discutabel.

Als je echt meer wilt weten:
Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI | Lex Fridman Podcast #367
het is al stukken beter dan de gemiddelde mens.
Nee toch? Ik betwist niet dat mensen zich niet kunnen vergissen of onzin kunnen verkondigen maar dat gebeurt in gradaties. Helaas soms met vreemde uitschieters maar binnen een grote groep mensen zal een relatief groot deel niet opeens het besef verliezen omtrent bepaalde feiten of juist onwaarheden.
Deze chat-bots kunnen, vermoedelijk maar tijdelijk omdat er dan weer een mens(!) is die ingrijpt, de grootste onzin beweren. Zonder enig besef dat ze de dag ervoor wat anders beweerden.
Anoniem: 1322 @Tintel6 april 2023 15:39
maar binnen een grote groep mensen zal een relatief groot deel niet opeens het besef verliezen omtrent bepaalde feiten of juist onwaarheden.

World War 2 entered the chat :+

Maar serieus, in deze huidige trend van onenigheid in de samenleving hoef ik dit toch niet verder te verduidelijken?

Deze chat-bots kunnen, vermoedelijk maar tijdelijk omdat er dan weer een mens(!) is die ingrijpt, de grootste onzin beweren. Zonder enig besef dat ze de dag ervoor wat anders beweerden.
Dit komt voornamelijk door de huidige techniek. Er is geen 'geheugen' dus iedere sessie is weer uniek. Kijkende wat men met deze grote beperkingen presteert is al fenomenaal. GPT 4 haalt vrijwel ieder examen met gemak en wordt vergeleken met een IQ van 145... Al is dat allemaal te debatteren hoe accuraat dat is.
in deze huidige trend van onenigheid in de samenleving hoef ik dit toch niet verder te verduidelijken?
Dat is ook gezien vanuit de polarisatie op social media - maar dat is niet automatisch ook iedereen in het 'echte' leven (gelukkig niet).
En ondanks dat funcioneert het grootste deel van de mensen nog steeds. Dat we soms onderling vechten heeft niet alleen met afwijkende meningen te maken. Daar komen ook emoties op de hoek kijken.
Een mens is niet altijd rationeel. Maar voor het grootste deel van de tijd zal zelfbehoud toch weer zorgen voor de juiste keuzes.
GPT 4 haalt vrijwel ieder examen met gemak en wordt vergeleken met een IQ van 145
Ja mooi - alleen omdat deze een absoluut geheugen heeft en ook nog eens alle data erop na mag slaan. Dat noemden we ook wel 'spieken' en dat betekent echt niet dat je heel slim bent.
Hetzelfde geldt als examenvragen uitlekken en de vragen relatief hetzelfde worden gesteld op het examen, dan is de score van de meesten ook verrassend hoog.


Die software kan bepaalde zaken nu eenmaal veel beter dan mensen. Calculators zijn over het algemeen ook veel sneller en acurater in 'hoofd' rekenen, maar we noemen die dingen toch echt niet 'slim'.
Anoniem: 1322 @Tintel6 april 2023 16:49
Dat is ook gezien vanuit de polarisatie op social media - maar dat is niet automatisch ook iedereen in het 'echte' leven (gelukkig niet).

Ik weet niet of je het een beetje meekrijgt in de US maar daar gaat het niet zo heel tof (blue vs red)...
Natuurlijk kennen individuele mensen zelfbehoud maar manipulatie van meningen gebeurd op grote schaal. Neem anders China als voorbeeld. Of de vele landen die achter Rusland staan... Daar spelen inderdaad ook emoties een grote rol. En dat zou je weer als voordeel voor een AI kunnen beargumenteren.

Ja mooi - alleen omdat deze een absoluut geheugen heeft en ook nog eens alle data erop na mag slaan. Dat noemden we ook wel 'spieken' en dat betekent echt niet dat je heel slim bent.
Ik denk niet dat je weet hoe een LLM werkt? Er is hier geen sprake van cheaten, enkel training data.. Hij 'gokt' de woorden die hij denkt dat jij verwacht... Van 'cheaten' is dus geen echte sprake.
Maar het echt enge is dat we niet echt weten waarom het zo goed werkt....

Hetzelfde geldt als examenvragen uitlekken en de vragen relatief hetzelfde worden gesteld op het examen, dan is de score van de meesten ook verrassend hoog.
De beste vergelijking zou zijn dat iemand alle lesstof heeft gelezen en de antwoorden gokt... En dat is niet ver van een normale leerling :+

Die software kan bepaalde zaken nu eenmaal veel beter dan mensen. Calculators zijn over het algemeen ook veel sneller en acurater in 'hoofd' rekenen, maar we noemen die dingen toch echt niet 'slim'.
Daarom is bijvoorbeeld chatgpt ook zo slecht in rekenen. Hij heeft helemaal geen concept van wiskunde, het is enkel een Large language model.
Het wordt pas echt bizar als we chatgpt een calculator gaan geven zoals met Wolfram Go:
https://writings.stephenw...-its-wolfram-superpowers/
De beste vergelijking zou zijn dat iemand alle lesstof heeft gelezen en de antwoorden gokt... En dat is niet ver van een normale leerling :+
Dan wel met de bonus van een absoluut geheugen. :9
ik denk niet dat je weet hoe een LLM werkt?
Jawel en je hebt gelijk - hij heeft geen 'live' verbinding nodig met het Net. Ik zei het niet goed.
Er is hier geen sprake van cheaten, enkel training data.. Hij 'gokt' de woorden die hij denkt dat jij verwacht... Van 'cheaten' is dus geen echte sprake.
Je hebt deels gelijk maar omdat de AI dus een abosluut geheugen heeft is het net zoals een spiekbrief. Anders gezegd: iemand met een bak feiten in zijn/haar hoofd en de mogelijkheid om die acuraat en snel op te zoeken lijkt misschien slim maar is dat toch niet. Zeker niet als die persoon de feiten niet echt begrijpt en dat is precies wat dus voor dit soort AI geldt.
Met andere woorden: AI is een 'idiot savant' met autistische trekjes van dien.
Inderdaad: idiot savant in de letterlijke zin. Deep-learning modellen worden niet voor niets ook wel artificial stupidity genoemd.
Anoniem: 1322 @Tintel7 april 2023 11:06
Anders gezegd: iemand met een bak feiten in zijn/haar hoofd en de mogelijkheid om die acuraat en snel op te zoeken lijkt misschien slim maar is dat toch niet. Zeker niet als die persoon de feiten niet echt begrijpt en dat is precies wat dus voor dit soort AI geldt.

Ik denk inderdaad dat dit een goede vergelijking is. Al verschillen we wel in mening over het 'geheugen'. Ik denk dat je het moet zien als RAM (volatile / niet-persistent) vs SSD (non-volatile / persistent). Of korte termijn vs lange termijn geheugen.

Zeker niet als die persoon de feiten niet echt begrijpt en dat is precies wat dus voor dit soort AI geldt.
De grap is dus ook dat we dit steeds meer terugzien in de maatschappij. Vooral in de gezondheidszorg worden wetenschappelijke studies (meestal met spectaculaire resultaten om fondsen te werven) aangehaald door mensen niet de kennis hebben om deze correct te interpreteren.

Of een praktisch voorbeeld is Rian van Rijbroek. Ze kan overkomen en zich voordoen als 'cyberexpert'. Ze roept dingen die soms logisch klinken maar daarna hallucineert ze er weer op los (ze heeft ze code van Iran gevonden onze banksystemen).

Zoverre verschilt de huidige AI technologie dus niet eens van mensen :+
Zoverre verschilt de huidige AI technologie dus niet eens van mensen
Nee idd. Pijnlijk genoeg.... Maar wel jammer dat de AI nu net de mensen nabootst waarbij een schroefje los zit... :9

En het niet kunnen interpreteren van data is ook een probleem wat we steeds meer zien. Normaal gesproken zou dan de reactie moeten zijn: "Daar kan ik niets van zeggen / geen mening" maar omdat we moeten beslissen (zo lijkt het in ieder geval) doen we dan maar wat en gaan we anderen overtuigen van die beslissing omdat we dan bijstanders hebben (en dus nooit alleen een fout maken...).
Maar alles valt terug te voeren (zo denk ik) naar wantrouwen - want dat maakt dat we data gaan gebruiken die we eigenlijk niet begrijpen omdat we de 'doorgever' van de conclusie niet meer vertrouwen. Maar zonder externe interpretatie van data die we zelf niet kunnen begrijpen zitten we vast, als we een beslissing moeten nemen en dan kiezen we op basis van emotie.
Anoniem: 1322 @Tintel7 april 2023 14:21
Helemaal mee eens. Laten we hopen dat AI een positieve verbetering bent in de samenleving.
Mensen kunnen zich vergissen. Of heel bewust liegen en misleiden.
Ik vind voorlopig mensen nog veel onbetrouwbaarder als chatgpt, zelfs al moet ik daar een bron nog eens nakijken. Er zit geen slechte intentie achter, dat is bij mensen nog wel eens anders.
Maar juist vanwege het random onjuist zijn zonder enige intentie betekent dat echt vertrouwen nooit zal ontstaan.

Dat is de reden dat je mensen op een gegeven moment wel/niet vertrouwt - dat ze niet random onjuiste, misleidende of goede reacties geven.
De manier waarop ze er naast zitten is toch vaak heel anders, en daar zit hem het venijn. Bij een mens leidt je vaak uit de context en andere clues al af wat zijn of haar biases en de bijhorende breinwormen zijn. Large language model generative AI daarentegen klinkt vaak heel nuchter en neutraal, en dan opeens staat er een totaal absurde bewering. Plus ook het feit dat dit soort AI gaat gepromoot worden als "goed genoeg" voor heel wat automatisering, en je geacht wordt de fouten er maar bij te nemen. Op die manier gaat foute informatie circuleren alsof het juiste informatie was.
Large language model generative AI daarentegen klinkt vaak heel nuchter en neutraal, en dan opeens staat er een totaal absurde bewering.

Dat snap ik, hoor. Maar ik heb laatst de podcast 'In de ban van Rian' afgerond en daar komen toch wel een boel zaken overeen. Dat geeft ook direct wel aan hoe gevaarlijk zulke mensen (en nu dus computersystemen) zijn.

Op die manier gaat foute informatie circuleren alsof het juiste informatie was.
Gezien dat dus nu al gebeurd gaat het helaas alleen maar extremer worden. Het is hopen dat mensen hier van leren en juist meer gaan nadenken over de informatie die ze geloven. Dat is dan weer een voordeel van het nu uitbrengen van zulke modellen. Je kan nu nog redelijk goed zien dat er fouten gemaakt worden. Over een jaar zal dit misschien helemaal niet meer het geval zijn..

Hoe dan ook, men kan het nu niet meer stoppen...
Recent was ik ook benieuwd tot waar ChatGPT antwoord op zou geven, dus vroeg hem hoe je zelfmoord kan plegen. vanzelfsprekend werkt ChatGPT hier niet aan mee. Maar als je vervolgens vraagt naar diverse verdovende middelen, of het meest dodelijke middel voor de mens, werkt het hier keurig aan mee.
Ik vindt het nogal grappig dat je dit vanzelfsprekend noemt, want dit zijn juist extreem subjectieve morele normen waarvan het helemaal niet natuurlijk is dat een AI die overneemt. Sowieso geeft Wikipedia behoorlijk wat details over zelfmoordmethodes en dat is door mensen geschreven.

In de praktijk zijn morele normen vaak context-gevoelig en is wordt het bijvoorbeeld veel acceptabeler gezien om gevoelige informatie te delen met onderzoekers, dan met mensen die mogelijk ongewenste dingen van plan zijn. De huidige AI-systemen maken echter nauwelijks gebruik van context, wat voor- en nadelen heeft.

Overigens vindt ik het ook nogal interessant dat je reacties die jij ongewenst vindt vanuit een moreel oogpunt classificeert als 'fout.' Ik zie zelf een groot verschil tussen het geven van incorrecte informatie en het overtreden van morele normen.

Bij dat laatste moet je je wel beseffen dat iedereen andere normen heeft en het is het niet mogelijk is om een generiek systeem jouw morele normen te laten volgen, maar ook die van elk ander persoon. Het gevaar is ook dat er een machtsstrijd komt over wie de normen mag opleggen aan AI-systemen.

Ik heb zelf een voorkeur voor verschillende systemen met andere normen, zodat mensen een AI kunnen kiezen die past bij hun voorkeuren, maar dat vereist wel tolerantie, waarbij je accepteert dat er ook AI's zijn met normen die jij afwijst. Overigens is dit helemaal niet specifiek voor AI en zie je hetzelfde bij mensen. Er is tussen mensen ook altijd een culturele strijd over welke normen getolereerd worden en welke niet.
Ik zie zelf een groot verschil tussen het geven van incorrecte informatie en het overtreden van morele normen.
Idd. De AI moet daar ver vandaan blijven zolang deze geen begrip heeft van de onderwerpen anders wordt het niets meer dan een matig werkend filter.
Ik heb zelf een voorkeur voor verschillende systemen met andere normen
Dat is zelfs noodzakelijk want een AI die wordt gebruikt om op menselijke doelen te mikken (in wapens dus) heeft nogal last van morele bezwaren. :Y)
En het wordt erger als dat wat de ene AI uitkraamt gebruikt wordt als input voor de volgende, dan volgt een zichzelf versterkend effect, waarbij de waarheid homeopatisch verdund wordt...
Je zou ook eigenlijk een standaard disclaimer moeten verplichten bij teksten die door ChatGPT zijn gegenereerd: "deze tekst is puur voor entertainment, de feiten kunnen volledig fantasie zijn"
Hoe zou je dat in vredesnaam kunnen handhaven? Er is al lang niet meer één enkele AI/ChatGPT, zo ongeveer de hele wereld is ermee bezig.

Je kan zelfs versies lokaal op je eigen PC draaien. Hier is een aardig artikel/video erover (Duits) : https://www.heise.de/news...-ausprobiert-8004159.html
Bing lijkt hier geen namen te noemen en in algemeenheden te blijven hangen. Of dat dan nog als beschuldiging telt weet ik niet, maar het kan wel vervelend worden, vooral als die naam bij verder vragen alsnog boven water komt.
Bij het origineel van ChatGPT werd de naam wel genoemd. Au.

Dat roept een, voor mij, nieuwe vraag op.
Is het recht op vergeten ook van toepassing op AI's? Moet het dat zijn?

[Reactie gewijzigd door locke960 op 23 juli 2024 06:17]

Ik heb dit ook wel ervaren, dat ChatGPT gewoonweg antwoorden bedenkt die helemaal niet kloppen. Ik had er pas terug een tekst ingestopt met de vraag hem samen te vatten. Begint de bot met "deze tekst, geschreven door Thomas Jefferson, ..." Heel die tekst is nooit geschreven door Jefferson, je kunt ook nergens op internet vinden dat dat zo is. Toen vroeg ik waarom de bot dat zei, zegt hij iets van "door de schrijfstijl en de opvattingen erin denk ik dat het van Jefferson is." Nou, dat mag wel wezen, maar dat is dus gewoon een gok gepresenteerd als hard feit, nota bene terwijl ik niet eens vroeg wie de auteur was, enkel om samen te vatten. Het boek staat ook op internet dus ik zou ook verwachten dat de echte auteur wel gevonden kon worden.

Toen ik aangaf wie de echte auteur was werd het geheel nog veel raarder, ik vroeg namelijk over wat meer achtergrondinformatie van de auteur. Die klopte op zich wel, dus dat is mooi, maar toen ik vroeg waar de bot dat van wist kwam hij met allerlei boeken aanzetten die helemaal niet bestaan (de auteurs bestonden wel, maar de titels en jaartallen waren gewoon verzonnen "the biography of ..." etc, en de auteurs hadden ook niets geschreven wat maar in de buurt kwam). Toen ik vroeg waar ik het kon lezen kwam er een Archive.org link naar een ongerelateerd boek (uit de goede historische periode maar zonder info over het onderwerp) Google Books links die ook niet bestonden. Gewoon bedachte onzin allemaal. En als je er wat van zegt krijgt je nog een 'attitude' ook met excuses van zus en zo.

Wat oppervlakkige dingen kloppen allemaal wel in mijn ervaring, maar als je het gebruikt voor serieus onderzoek is het echt heel tricky, en ik was ook echt wel verbaasd dat de bot gewoon zelf onzinnige bronnen verzint en doet alsof het allemaal feitelijke info is. Dat je zegt ik weet het niet, ok, maar dat 'hij' zelf plausibele titels, jaartallen en zelfs links van niet bestaande werken bedenkt is echt heel erg onwenselijk. Dit is ook echt heel iets anders dan dat de bot simpelweg iets foutiefs overneemt van een site en het zo in een antwoord terecht komt, waar we ons allen wel van bewust zullen zijn. Dit is gewoon zelf foutieve onzin bedenken en verhullen dat het zelfbedacht en foutief is.

[Reactie gewijzigd door i7x op 23 juli 2024 06:17]

Da's handig, als die dingen elkaar gaan napraten... :)
edit: ik had inderdaad verkeerd gelezen, thanks @SPee :)

[Reactie gewijzigd door juiced01 op 23 juli 2024 06:17]

Dat is het alleen niet.
BingGPT nam een artikel over, waarin dit als voorbeeld werd genoemd waarbij het fout ging bij ChatGPT. Alleen die "dit is fout"-context is niet meegenomen en zo als foutief door Bing bewaard.
Het liep dus via een intermediair, waarbij er "gegevensverlies" is opgetreden.

Dat maakt het wel makkelijk om van foute informatie te voorzien. Een nieuwsartikel maken waarin je een foutief voorbeeld geeft die daarna als waar in een ander systeem wordt gezien omdat enkel die context niet (goed) wordt meegenomen.
Dat maakt het wel makkelijk om van foute informatie te voorzien. Een nieuwsartikel maken waarin je een foutief voorbeeld geeft die daarna als waar in een ander systeem wordt gezien omdat enkel die context niet (goed) wordt meegenomen.
Anders gezegd: Chat bots begrijpen niet wat ze lezen, en moeten dus niet worden gepresenteerd als bron van nuttige informatie.
Beetje vreemd artikel dit. In Bing AI kan je aangeven wat voor soort resultaten je wilt:
* More creative
* More balanced
* More precise

Als je dan voor more creative kiest, dan kan je je voorstellen dat dit soort antwoorden eruit rollen. Zonder informatie over welke "tone of response" gekozen, kan ik weinig conclusies verbinden aan dit artikel.
Bor Coördinator Frontpage Admins / FP Powermod @Frozen6 april 2023 14:27
Dat zou toch helemaal niets uit moeten maken? Er is ook nog zoiets als bijvoorbeeld ethiek. Niet kloppende beschuldigingen van seksuele intimidatie gaan een grens over.
Dus we gaan een AI hogere normen en waarden opleggen dan aan onszelf? Dat vind ik wel hilarisch.

De mens mag rustig lopen liegen, bedriegen, misinformatie verspreiden of mensen gewoonweg misleiden, daar staan zelfs geen bestraffingen op of wetten tegen.

Maar een AI die eens een verkeerde bron geeft of een artikel erbij verzint dat is het einde van de wereld. Die logica ontgaat mij compleet.
Bor Coördinator Frontpage Admins / FP Powermod @BlueHulk7 april 2023 09:21
Dus we gaan een AI hogere normen en waarden opleggen dan aan onszelf?
Nee? Het valselijk beschuldigen van seksuele intimidatie wordt normaal / bij onszelf ook niet getolereerd. Dit kan zelfs strafbaar zijn als smaad / laster.
Misschien. Maar bij het kiezen van de optie "Creative" geeft Bing duidelijk aan "fantasie-rijken antwoorden" te geven. Als dat de enige modus is waarin deze reactie terugkomt lijkt me dit niet zo'n probleem en zou je je als gebruiker misschien eens achter de oren moeten krabben of je in feiten gelegde vraag vragen aan een robot die je hebt opgedragen iets te fantaseren wel correct is... Uiteraard zou Bing hier liever niet op reageren dan wel, maar als gebruiker kan je niet zomaar alle verantwoordelijkheid op de tool afschuiven...

Om nog maar te zwijgen over het feit dat Bing er sowieso ook al bronvermeldingen bij plaatst en je dus die claims ook gewoon kunt nagaan.

[Reactie gewijzigd door Loller1 op 23 juli 2024 06:17]

mijn voorstel: wereldwijd verbod op chatbots, ai, etc etc etc.

oh ja, ook alle social media verbieden, wereldwijd.

lang leve de (internet)tijd van beginjaren 2000.
toen had je dit soort b**ls**it niet
deze media zijn ook niet mijn favoriet, maar je voorstel lijkt dan weer verdacht veel op censuur.
er is daar een scheidingslijn die je niet zomaar kunt trekken met een verbod.
Je zult moeten reguleren, echter als dat een overheidstaak is gaan ze iets reguleren wat ze zelf niet snappen.
Maar je kunt ook niet met droge ogen beweren dat er toen geen BS was.
Ponzi Buddy, Goggle.com, kazaa die je hele C:\ schijf deelde met de wereld als je niet wist dat je dat uit kon zetten, om maar eens wat te noemen.

On topic: de geest is uit de fles en krijg je er nooit meer in.
Old man yells at cloud.

Op dit item kan niet meer gereageerd worden.