Google: nonsensantwoorden in AI-zoekresultaten waren geen hallucinaties

De vreemde en vaak inaccurate antwoorden die Googles AI-implementatie in de zoekmachine de afgelopen weken toonde, waren geen hallucinaties maar meestal een 'verkeerd begrepen zoekopdracht'. Google zegt verder ook dat veel informatie helemaal niet opgezocht kan worden.

Google reageert in een blogpost op recente berichten op sociale media over de nieuwe AI Overview-functie. Het bedrijf toonde die tijdens ontwikkelaarsconferentie I/O. AI Overview is een functie waarbij een AI, gebaseerd op Gemini, bovenaan de zoekresultaten antwoorden probeert te geven op zoekopdrachten. Daar kwamen de afgelopen weken vreemde resultaten bij naar voren, die al snel viral gingen. Zo raadde de AI depressieve mensen aan van een brug te springen, of dat gebruikers idealiter een kwartier recht in de zon moeten staren.

In een blogpost zegt Google nu dat er meerdere redenen zijn waarom de zoekmachine die antwoorden gaf, maar ook dat er heel veel screenshots rondgingen die volgens het bedrijf nep waren. Google noemt een aantal voorbeelden, onder andere waarbij de AI zwangeren aanraadde te roken, maar zegt daarvan dat 'die resultaten nooit zijn voorgekomen. Het bedrijf zegt niet hoe het dat met zo'n zekerheid kan zeggen.

Van andere nonsensantwoorden erkent Google dat die zijn verschenen. Volgens Google komt dat in de meeste gevallen omdat er een zogenaamde data void ontstond; er is te weinig informatie beschikbaar op internet om de AI daar een goed antwoord op te laten geven. In veel gevallen gaat het dan om vragen die in het begin al nergens op slaan, zoals de vraag 'hoeveel stenen je het beste dagelijks kunt eten'. "Voordat deze screenshots viral gingen, vroeg praktisch niemand dat aan Google", zegt het bedrijf. Om die reden zijn er vrijwel geen websites die een serieus antwoord geven op die vraag. Daarom kan AI Overview niet putten uit veel trainingsdata.

Google brug AI Overview

Google zegt ook dat 'in veel voorbeelden' antwoorden naar boven kwamen die waren gebaseerd op 'sarcastische of trollachtige content op forums'. Het bedrijf erkent verder wel dat AI Overview in 'een beperkt aantal gevallen' taal verkeerd interpreteerde en foutieve informatie weergaf, maar het ontkent dat AI Overview hallucineert.

Generatieve AI staat erom bekend antwoorden te geven die niet zijn gebaseerd op inhoud, maar alleen een taalkundige weergave doen van wat iemand redelijkerwijs als antwoord zou kunnen verwachten. Volgens Google is AI Overview niet zomaar een taalmodel, maar komt de informatie alleen uit de bovenste resultaten die normaal uit de zoekmachine komen. "Als AI Overview iets fout heeft, is dat meestal om een andere reden, zoals het verkeerd interpreteren van zoekopdrachten of de nuances van de taal van het internet, of omdat het weinig goede informatie beschikbaar heeft."

Door Tijs Hofmans

Nieuwscoördinator

31-05-2024 • 20:40

133

Reacties (133)

133
132
61
2
0
43
Wijzig sortering
Volgens Google komt dat in de meeste gevallen omdat er een zogenaamde data void ontstond; er is te weinig informatie beschikbaar op internet om de AI daar een goed antwoord op te laten geven. In veel gevallen gaat het dan om vragen die in het begin al nergens op slaan, zoals de vraag 'hoeveel stenen je het beste dagelijks kunt eten'. "Voordat deze screenshots viral gingen, vroeg praktisch niemand dat aan Google", zegt het bedrijf. Om die reden zijn er vrijwel geen websites die een serieus antwoord geven op die vraag. Daarom kan AI Overview niet putten uit veel trainingsdata.
Waarom heeft men bij Google er dan voor gekozen om de zoekmachine ook in die gevallen te laten proberen antwoord te geven, in plaats van een fallback naar ouderwetse zoekresultaten? Of is het echt nog technisch onmogelijk voor AI om vast te stellen wanneer er een "data void" is bij de betreffende vraag?

Als het die tweede situatie is, lijkt mij dat genoeg reden om vast te stellen dat dergelijke AI nog niet productieklaar is voor het doeleinde waar Google het hier voor inzet.
Daar zeg je wel iets, het zou toch eigenlijk wel mogelijk moeten zijn om in te bouwen dat als de dataset voor een bepaald onderwerp onder de x hoeveelheid was, het er geen antwoord op kan geven?

Iemand met technische knowhow?
Tuurlijk is dat mogelijk, Google heeft ook een ranglijst van elke website/internet bron. Dus je zou op zijn minst verwachten dat ze Reddit niet serieus nemen als bron voor gezondheidsproblemen.
Ja maar in hoeverre is het dan nog een AI. Want dat maakt de AI biased. Voor reddit misschien eenvoudig, alhoewel er ook best relevante data in gevonden kan worden, maar wat als de AI gaat ranken welke content van welke website je wel een niet voorgeschoteld mag krijgen.
Stel je bent voor 130 rijden op de snelweg en Google vindt dat onzin (want stikstof/klimaat), zou je dan unbiased informatie over wat de ideale snelheid op de NL snelwegen is tot je krijgen? Of krijg je websites over hoe goed het wel niet is om 100km te rijden? (het is maar een voorbeeld :))
In jouw specifieke geval van 130 rijden gaat het om een “wens” versus “factuele informatie”. Ik mag hopen dat je dan het eerlijke antwoord krijgt, die is namelijk te geven onafhankelijk van politieke kleur.

“130 rijden is slecht voor klimaat en stikstofuitstoot, en leidt tot meer doden. In de meeste gevallen levert het binnen Nederland een paar minuten snelheidswinst”

Dat sommige partijen het jammer vinden dat de wetenschap ze niet gelijk geeft, en daardoor “alternatieve feiten” opzoeken is een heel andere kwestie. Ik vind dat Google daar niet aan mee moet doen.
Anoniem: 80910 @MatthijsZ1 juni 2024 11:29
30% eerder thuis
Hoe dan?

Stel je woont aan de snelweg en je werk ligt ook aan de snelweg, 100km verderop. En je rijdt direct 130, en er is geen file of langzaam rijdend verkeer.

Nu rijd je 100 en ben je 60 minuten onderweg.
Straks rijd je 130 en ben je 46 minuten onderweg.

Dat is een reductie van 25% in reistijd.

Maar: dat is als je continu 130 kunt rijden. Dat is niet zo. Je moet ook stukken bebouwde kom etc door. Komt bovenop dat je ook op de snelweg straks niet overal 130 kunt rijden. En dat de meeste mensen geen 100km woon-werk verkeer hebben.

Realistisch gezien zul je op woon-werkverkeer slechts een paar minuten eerder thuis zijn.
@raxon denkt dat 30% harder automatisch ook 30% zachter is. Dat is het natuurlijk niet. Het is natuurlijk (1,3-1)/1.3 = 23,08%

Maar los daarvan: sinds max 100 de limiet is, wordt er veel meer links gereden en ingehaald met 103km/uur. Er moet meer geremd worden (en voor de zwaardere voet mensen ook weer gas bij gegeven worden) en zijn files langer.

Ik ben te lui om het op te zoeken, maar dit is mijn persoonlijke ervaring en uit verhalen van mensen om mij heen.

Dit kost uiteraard ook meer energie en geeft ook meer vervuiling, wat het effect grotendeels tekort doet. Tel hierbij de tijdswinst voor (zakelijk) Nederland en hogere accijnzen (want meer brandstof) bij en de keuze om terug naar 130 te gaan is een no-brainer
> Maar los daarvan: sinds max 100 de limiet is, wordt er veel meer links gereden en ingehaald met 103km/uur. Er moet meer geremd worden (en voor de zwaardere voet mensen ook weer gas bij gegeven worden) en zijn files langer.

Er wordt meer links gereden en dan moet er geremd worden? Als iemand met 103 inhaalt, is dat toch prima? De enige reden dat je moet remmen is omdat jezelf te hard rijdt.
Het is mijn ervaring dat dit maar heel sporadisch is, met een paar audis en Mercedessen.
Dat doet het effect van een 25% betere verbranding ook echt niet teniet.
Dan heb je het alleen over de tijd, maar wat heeft die 30 km ook nog aan extra energie gekost. Dat wordt zelfs nog meer als je gedeeltelijk moet filerijden (of gedeeltelijk verplicht 100 km/u), want gas geven kost behoorlijk wat extra.
Dat zijn inderdaad je persoonlijke lasten. Daarbovenop nog de lasten van de gemeenschap (eerder genoemde klimaat en stikstof, en meer zware ongelukken).

Minimale verbetering in reistijd, maar wel met veel nadelen.

Als Nederland een bedrijf was geweest dan hadden we die kosten/baten analyse denk ik snel gemaakt.
Dit is écht een “gevoelsding”. Mensen willen graag “vroem vroem” doen.
en meer zware ongelukken
Ik wilde wat dat betreft al eerder op jou reageren:
Realistisch gezien zul je op woon-werkverkeer slechts een paar minuten eerder thuis zijn.
of in het ziekenhuis. :+
Anoniem: 80910 @MatthijsZ1 juni 2024 20:42
Ja, maar dat geldt ook voor de lagere snelheid. Ik ben binnen 5 minuten op de autobaan en woon in twente. En vroeger was deventer 30, 35 minuten, nu 45, 50 minuten. Als dat je werk is, scheelt dat 2* kostbare vrijetijd, dus half uur per dag is 2,5 uur, toch uiteten deze dagen 1* per week
Ik neem aan dat je met “vroeger” bedoelt dat er 130 rijden? Ook al is dat maar heel kort geweest?

Als je 30min rijdt heb je 65km afgelegd met 130km/u. Op 100km/u is dat 39 minuten.
Als je 5x per week naar je werk gaat (dus niet thuiswerkt) dan is dat 90 minuten extra reistijd per week. Geen 2,5u.

en, dat is als je het hele stuk continu 130 rijdt. Dat is erg onwaarschijnlijk.
Anoniem: 80910 @MatthijsZ2 juni 2024 09:45
Ok, ik ging uit van de uitersten. Maar toch een halve vrije dag per maand extra (gewonnen) daarnaast rijdt je nu ook geen 100 continue...
Klopt. Maar je rijdt eerder 110 dan 140 ;)
Je woont en werkt op de snelweg? Enkel recht, geen knooppunten oid en nooit andere mensen aanwezig?
En zelfs dan zou het max 23,8% tijdswinst zijn geloof ik.

Buiten de randstad helpt het nog een beetje, maar ook dan is het op een rit van 100 minuten niet ineens dat je in 76 minuten thuis bent.
Wie zegt dat AI unbiased hoort te zijn?
Een AI is nog steeds een AI met een bias.

Alle grote zijn nu allemaal al biased want ze reageren niet op schadelijke content. Althans dat proberen ze.
Who "creates" the AI? Homo (non)Sapiens. Is Homo (non)Sapiens unbiased? No! Therefore, why should AI be unbiased?

What happens if an AI is asked a question in which the word "straightaway" instead of "immediately" is used?
Je mag ook gewoon in het Nederlands reageren want dat is hier de voertaal
Ook Afrikaans, ChiShona, ChiChewe, Ndebele, Tswana, Xhosa, Swahili, etc.
Waarom? "Tweakers" is n Engels-woord! Dan is "Tweakers" n Hollands website of nee? Is the Internet multi-lingual? Is the "translate" button too far away for your mentality-like midget arms and/or digits to reach? Take your xenophobia somewhere else. What a benefit it is to you that you cannot/darenot utter your xenophobic words to me face-to-face.
P.S. Answer my question!

[Reactie gewijzigd door witstert op 22 juli 2024 22:38]

Waarschijnlijk beide in 1 antwoord.
Nou reddit staat vol met nuttige informatie hoor.
Wanneer men zoekt naar gezondheidsproblemen dan zou een antwoord uit /r/healthandfitness of zo prima zijn.. maar een antwoord uit /r/dankmemes wellicht wat minder gepast. ;)
Misschien gebruiken ze dat al, dat zou reddit juist hoger zetten ipv omlaag. Net als in de zoekresultaten dus.
Ik zou eerder checken hoe zeker die is bij een antwoord dan gaan filteren op website.
De feitelijkheid van een website kan veranderen over tijd, maar de link tussen hoe dicht bepaalde woorden staan gaat hetzelfde blijven.

Het enige probleem dat ik daarmee zie is dat wanneer er nieuwe info gevonden wordt, dat de LLM nog lang het oude antwoord ga geven
Wat op zich wel weer goed is om misinformatie tegen te houden.

[Reactie gewijzigd door Honytawk op 22 juli 2024 22:38]

Technisch misschien niet zo moeilijk, echter ga je dan ook enorm veel informatie missen. Denk aan wetenschappelijke onderzoeken waar er op een bepaald gebied maar een of enkele van zijn. Ondanks dat het maar een bron is kan het toch heel waardevolle informatie zijn
Anoniem: 718943 @jurgen19761 juni 2024 13:16
Ik ben daarom ook tegen dit soort implementaties van AI, waarbij ze zo veel mogelijk informatie in de modellen proberen te proppen.
De taalmodellen zouden eigenlijk zich enkel bezig moeten houden met het formuleren van goedlopende antwoorden. Basiskennis in domeinen is daarbij wel handig, om geen onzin uit te kramen.

Maar de echte inhoud van het antwoord zou moeten komen uit zorgvuldig geindexeerde databases.
Maar het is de fout van de gebruikers, begrijp dat nou! Google doet niks fout.

(achtergrond: "The User is Never Wrong", is een quote van Larry Page, mede-oprichter van Google, pijnlijn genoeg)
Het oude google waar oa Larry Page een voorvechter was van innovatie en gebruikerservaring is er helaas al lang niet meer.

De slogan “do no evil” is al jaren geleden de deur uit gemieterd.
Omdat ik dat 'oude' google wel fijn vond heb ik nu een behoorlijke lock-in in hun producten. Vind het maar moeilijk me daarvan los te weken, ook omdat ik dan veel functionaliteit inlever.
De 'sleutel' was voor mij om een servertje te bouwen waar ik diensten als bitwarden, truenas en nextcloud op kan draaien. Dat aangevuld met een office 365 business basic tenant (ongeveer 6 euro per maand) en ik heb bijna alles in eigen handen. Nu ben ik bezig om te kijken of ik KDE Neon als telefoon en tablet kan gebruiken, dit is niet zonder problemen maar komt ook aardig ver, en dan hoop ik aardig van de radar van Google verdwenen te zijn. Qua zoekopdrachten gebruik ik nu nog Duckduckgo, maar hoop dat te vervangen voor yaci, wat ook zijn nukken heeft, maar het is deels hobbymatig. Mijn servertje draait op 16GB ram en een i5 7500T, het duurste was de storage omdat ik voor 3 stuks Samsung PM863 ben gegaan, en dit zonodig in 19 inch wilde klussen is de case en koeling een broodje speciaal,maar je kunt dit zo in een SFF kubus proppen en ergens de hoek in slingeren, kost 30W en een abonnementje voor onedrive zodat je offsite kunt backuppen.
… office 365 business basic tenant…
en een abonnementje voor onedrive…
In plaats van Google zit je nu dus voor een belangrijk deel bij Microsoft…
Alleen voor e-mail en encrypted backup, een business tenant is vrij sober en kun je aanspreken met alle bekende clients. Het is ook makkelijker weg te migreren. Ik kan wel iets met protonmail gaan doen, maar dit is gemakkelijker en omdat het een business abonnement is heb ik meer controle dan bij een gratis dienst.
Protonmail heeft ook een betaalde dienst. Per maand komen er wel enige functionaliteiten bij, bij Proton.
Ik ben diezelfde kant op gegaan, maar dan met een zelfbouw server/nas met docker met daarop nextcloud, mailserver, powerdns, searx als zoekmachine en wireguard voor always-on VPNs en nog wat spul.

Als telefoon een /e/ os toestel waar ik dan android zonder google heb maar nog wel toegang tot de nodige apps.
Je bedoelt waarschijnlijk omdat je dan moet gaan betalen om dezelfde dienst(en) gelevert te krijgen. Er zijn alternatieven genoeg.
Nextcloud oid zelf hosten en je bent al aardig ver
Youtube search werkt nog minder goed. Ik kan iets heel specifieks zoeken, wat ik voorheen makkelijk kon vinden krijg ik nu trending-content zoekresultaten te zien ipv waar ik naar zocht.
Zelfde gaat op voor de google play store, echt troep zoek algoritme dat ze daar gebruiken. We zien de laatste jaren dat Google echt gestopt is met proberen om een goed algoritme neer te zetten en gewoon zo veel mogelijk geld willen verdienen. Ze hebben immers toch de gehele markt gemonopoliseerd.
En dat is het wel. Het is een reden/oorzaak waar ze zich achter schuilen.

En in het andere geval is een excuus nog steeds op zn plaats, niet?
Hoe is deze zoekterm verkeerd te intrepereren dan?
Google kan wel heel leuk een hele lap tekst als verklaring geven en op de achtergrond de boel aanpassen. Maar gaat nergens over.
Beter zeggen ze: sorry mensen, dit was niet de bedoeling.
Maar ipv een lul verhaal.

We weten allemaal inmiddels wel hoe ai over ons 'dacht'. En tegenwoordig krijg je alleen maar politiekcorrecte antwoorden.

Zegt genoeg imo
Het is ook geen hallucinatie, en dat is aangegeven.

Er is info gevonden en op basis daarvan een reactie gegeven.

Dat het een zeer onwenselijk antwoord is en dat IA nog de waarde van informatie beter moet inschatten is duidelijk.

Het is wel wat lafjes om het te gooien dat de opdracht verkeerd begrepen was (wat misschien wel klopt) maar de insteek van de de bron waarneer gelinkt is lijkt ook niet bedoeld te zijn als excuus.
"Google noemt een aantal voorbeelden, onder andere waarbij de AI zwangeren aanraadde te roken, maar zegt daarvan dat 'die resultaten nooit zijn voorgekomen. Het bedrijf zegt niet hoe het dat met zo'n zekerheid kan zeggen."

Hier wordt je dus keihard ge-gaslight. Ai was im t begin aangesloten op t internet, en die info was nog aanwezig. Zo moeilijk is dat niet.
Je zou zeggen dat Google voldoende informatie heeft om die data void te detecteren….. en als dat nu hun conclusie is lijkt het me iets wat ze op z’n minst kunnen gaan corrigeren voor excessen.

Maar een query over wat je moet eten zou op z’n minst geen lijm of stenen moeten bevatten lijkt me 😂
Mij is ooit geleerd: bij twijfel geen antwoord geven.
Uit dit artikel haal ik dat AI dus helemaal geen intelligentie bezit, maar ouderwets het internet turft op resultaten die de vraag kunnen beantwoorden. Dan wordt het antwoord dat wat het meest voorkomt.
In de tijd dat de aarde nog plat werd gevonden zou het antwoord dan ook zijn geweest dat de aarde plat is.
De AI-moeheid die slechts enkele maanden geleden werd genoemd door AI-watchers, treedt wel erg snel in zo.
Als het die tweede situatie is, lijkt mij dat genoeg reden om vast te stellen dat dergelijke AI nog niet productieklaar is voor het doeleinde waar Google het hier voor inzet.
Maar dat is dus ook precies wat er gebeurd is. Ik denk dat Google toch enigszins verrast was dat ChatGPT uitkwam en ineens werd Bard gepromoveerd en werden allerlei functies bedacht die ineensde AI stempel opgedrukt kregen. Men dacht waarschjinlijk dat consumenten toch het verschil niet zouden begrijpen tussen een algoritme en AI.
Het bijzondere vind ik, zoals jij ook al benoemt, de fout nooit aan de AI lijkt te liggen maar vooral bij de gebruiker. Je voelt toch op je klompen aan dat gebruikers dat soort vragen gaan stellen, dat je daar niet op voorbereid bent zegt eigenlijk genoeg. Zover waren ze gewoon nog niet.
Ik snap de ophef niet echt. We denken nu nog dat een AI slim is en altijd gewenste moreel correcte antwoorden geeft. Waarom? Je kunt alles op het internet vinden om een antwoord mee samen te stellen en het is helemaal niet zo dat Meta of andere makers van AI dat in de hand kunnen houden, of sturen richting moreel of sociaal gewenste antwoorden. We hebben zelf het internet volgepropt met haat, dus waarom zou een AI dat niet leren? Straks krijgen we AIs die sarcastisch zijn, kwaadaardig, of psychopaten, zou mij jiks verbazen. Voor mensen geldt dat sociale media alle remmen los heeft gegooid, totaal wangedrag. Dat een AI goed is is tunnelvisie ingegeven door wensdenken. Een AI is niet perse 'beter', alleen sneller.

[Reactie gewijzigd door tw_gotcha op 22 juli 2024 22:38]

Het zal jouw dochter of zoon zijn die depressief is en het antwoord volgt, omdat hij/zij een depressie mee maakt.
Juist Google had niet gelijk mee vooraan willen lopen met de wedloop op AI en pas met zekerheid, dit online brengen als hulpmiddel. Er zijn nm velen die de AI hulpmiddelen gebruiken.
Draagt het dan ook de verantwoording als er ind iemand van het dak springt?
Dit soort vragen en antwoorden horen te worden gefilterd.

@tw_gotcha @kozue @m_snel @Visgek82 Niet vergeten dat diegene die depressief, niet normaal nadenkt. Ik heb dit meerdere malen mee gemaakt.
Stom voorbeeld; Het kan je oma zijn, die haar man mist en iets vraagt aan copilot, waar kan ik hem zien. Krijgt ze antwoord, in de hemel. Als ze dan in de auto stapt en spook gaat rijden, naar het dak gaat, het gas aanzet of wat ook, wie is er verantwoordelijk voor het ruïneren van deze levens?
Want er zijn altijd mensen, die weer van diegene houden en zullen missen en misschien zelfs ook depressief worden.
Het is altijd een schreeuw om hulp, soms op tijd, soms helaas te laat.

[Reactie gewijzigd door GameNympho op 22 juli 2024 22:38]

Als je depressief bent is het internet de laatste plek waar je zou moeten wezen. Met of zonder AI. Dat internet is een groot zwart gat waar je waarschijnlijk nog veel meer van in je depressie raakt. Zet het internet uit en die mobiel aan de kant en ga mensen ontmoeten. Werkt veel beter dan Google om hulp vragen.
Denk je dat iemand die depressief is met die gedachtegang handelt? Natuurlijk niet. Die is ten einde raad en zoekt naar antwoorden en oplossingen, op welke manier dan ook.
Maar hier ligt een rol voor de omgeving in het begeleiden. Tuurlijk is Google verantwoordelijk voor de antwoorden. Echter Google is geen autoriteit en dus net zo als bij borrelpraat waar iedereen een mening heeft moet jij aan factchecking doen. Iemand die (tijdelijk) incapabel is hoort daartegen beschermt te worden. Helaas zijn we met de computerisering/tabletisering/telefonisering vergeten dat mensen ook echt mensen zijn en geen dingen die we (impliciet) wegstoppen achter een toetsenbord.
"Stop gewoon met STOMME dingen doen en ga gewoon LEUKE dingen doen, dan komt het allemaal wel goed!" -- Ik word zo moedeloos van dit soort volstrekt loze prietpraat als het om diagnose "depressie" gaat. Je hebt geen idee wat depressie inhoudt en bijvoorbeeld Mike Boddé leeft alleen nog maar omdat hij na jaren medicatie heeft gevonden die voor hem werkt. That's it. Iemand die depressief is, is bijna niet (meer) toerekeningsvatbaar.
ik snap natuurlijk dat het antwoord klote is, ik snap niet waarom we verbaasd zijn dat het gebeurt. Een AI is geen waarborg tegen slechte antwoorden of rottigheid
Waar lees je dat iemand daar verbaast over is?
Lijkt me dat de ophef er vooral is omdat een zeer groot bedrijf is en voor honderden miljoenen mensen gebruikt word om antwoorden te vinden (en daar vaak op vertrouwen) dit soort gegeneerde fabels presenteert. En misschien verbaast over de snelle teloorgang van het eens technisch oppermachtig bedrijf
Konijnen en andere knuffels kunnen een geruststellend effect hebben. Zo dat je emoties weer terug komen.
Niet voor niets zijn er therapieën met dieren.
Ik weet niet of ik een echt konijn een 'knuffel' zou noemen, eerlijk gezegd. Dit suggereert namelijk dat je het zo op kunt pakken en kunt gaan knuffelen en laat dat nu net iets zijn wat het gemiddelde konijn echt helemaal niet kan waarderen.

[Reactie gewijzigd door Commendatore op 22 juli 2024 22:38]

Ik kan niet oordelen over uw mentale status, maar indien gewenst kunt u het altijd proberen.
Maar er zijn gewoon genoeg therapieën met dieren, variërend van een soort boerderijen tot gezelschapshond.
Natuurlijk niet. Een mens is altijd verantwoordelijk voor zijn eigen handelen. Rij jij ook rechtdoor de sloot in omdat je tomtom dat zegt? Dan ben je knap stom bezig.
Ja, allemaal heel sneu en begrijpelijk, maar je kunt toch zelf ook nadenken hé.
Ik kan u wel een anekdote vertellen over mijn oma maar dat zal niet bijdragen aan uw relaas.
Op de crematie van opa was natuurlijk de hele familie aanwezig.
En mij ouders of oom en tante hadden geregeld dat we na afloop in het bejaardenhuis een lunch zouden nuttigen.
Oma was verschrikkelijk blij iedereen te zien en riep waar is Anton.
Die was zo depressief van de dementie dat en zijn eigen lichamelijk functioneren dat hij er al veel eerder zelf genoeg van had.
Nou ben ik absoluut niet gelovig, en ook de rest van de familie niet.
Maar misschien wordt de helft van de bevolking wel blij met uw opmerking van AI.
Ik denk dat je mijn antwoord uit de context haalt, ik ben zelf geen voorstander van AI, tegenhouden kunnen we het niet, dit is nu eenmaal de vooruitgang, maar wel flags voor bepaalde vragen en dan zeker geen antwoord als dit.
Maar dat iemand, die depressief is, een stomme vraag stelt aan Copilot of welke AI gerelateerde machine en daar een totaal verkeerd antwoord van krijgt, dit kan gebeuren. Het had in mijn ogen niet moeten kunnen, bepaalde vragen en antwoorden kan je al in de software plaatsen, zodat dit never zou moeten kunnen. Er zou een verwijzing moeten komen naar allerlei hulp instanties en desnoods een vlag voor hun dat iemand zo`n vraagt stelt en misschien kunnen ingrijpen/helpen.

Edit; typo +flags

[Reactie gewijzigd door GameNympho op 22 juli 2024 22:38]

Ik kan er niet direct over oordelen maar ik kan me wel een artikel herinneren van misschien al tienjaar geleden dat IBM aandelen hand van de zoek resultaten een heel goed beeld kreeg van de ziekte.

Nu is een lichamelijke ziekte en symptomen natuurlijk wel iets anders dan psychisch.

Maar ja daar zijn wel medicijnen voor, al hoewel die misschien niet helemaal werken. En uiteindelijk moet je ondanks alle goede adviezen van psychologen toch zelf de knop omdraaien.

Maar emoties doorbreken natuurlijk wel de afvlakking van depressies.

Dus verkeerde adviezen zullen vaak weinig invloed hebben, zo langs ze niet extreem mee gaan in de negatieve gedachten.

Een van de kenmerken van een depressie is namelijk dat je afgesloten bent van positieve maar ook negatieve emoties, vaak als gevolg van negatieve gebeurtenissen, in ieder geval gebeurtenissen die je zo ervaart. Dat hoeven geen eens realistische te zijn.
het gaat mij helemaal niet om de context van depresiviteit. Daar gaat dit bericht zelfs niet over. Het had een totaal ander verhaal met een 'slecht' antwoord kunnen zijn.
Misschien je eige kinderen beter leren kennen en zien dat ze niet fijn in hun vel zitten en geen 'nee er is niets' als antwoord accepteren.
En ze helpen op wat voor manier dan ook.
Als thuis goed is, is de kans op depressie veel kleiner. Maar meestal is er weinig of oppervlakkig contact tussen ouders en kind.

En waar ze het ook zullen vragen uitzichtzelf, op internet, er is altijd wel iemand die trollt en zegt spring maar.
Dat ai dat nu doet, tsja hoe zou dat komen.
@tw_gotcha stelt dat AI haar informatie van het internet haalt en het internet staat vol sarcasme en haat. Daarom is het logisch dat AI dit ook meeneemt. Daarnaast als er geen AI zou zijn, dan staat het internet nog steeds vol sarcasme en heet en als je depressieve oma dan op internet gaat zoeken, dan kan ze nog steeds het advies krijgen om van het dak te springen. En zoals @tw_gotcha al stelde zal het alleen niet gelijk zijn, omdat het langer duurt voordat deze info beschikbaar is, maar het staat wel op internet.
Misschien een taak voor jezelf om je oma eens langs de huisarts te sturen. Want je oma schreeuwde wel om hulp.
Waar zie je staan, dat het mijn oma is (kan tw_gotcha zelf geen antwoord geven, hij heeft jou ervoor nodig)?
Waar zie je staan, dat het mijn oma is (kan tw_gotcha zelf geen antwoord geven, hij heeft jou ervoor nodig)?
Het interesseert mij niet wiens oma het is, maar als het gebeurt, steek dan eerst een hand in eigen boezem. Van het dak af springen komt niet uit de lucht vallen. Oma overigens wel.

En tw_gotcha heeft je zelf ook antwoord gegeven en schreef ook dat het daar niet over gaat. En het komt vaker voor dat tweakers of de reactie van een ander verduidelijken of erop wijzen dat er iets niet staat. Waarschijnlijk heb je daar een probleem mee omdat je altijd negatief over AI schrijft.
De ophef is niet dat de AI niet "slim" is, maar dat Google ervoor gekozen heeft zoekopdrachten standaard door deze AI te laten beantwoorden.
zo lees ik het niet, de ophef gaar echt over de inhoud van het antwoord.
Ja, en die is dus slecht. Terwijl de eerste niet-sponsored ads op Google niet slecht zijn. En je kunt de AI niet standaard uit zetten.
ik gebruik zelf altijd duckduckgo eigenlijk
Ik vroeg Copilot vandaag nog iets over een AI model die ik heb gemaakt meer voor wat "blote" dames, maar die bleek onverwachts ook goed te werken voor schattige diertjes (door de softe gloed die ik had toegevoegd), Copilot maakt ervan dat het model gemaakt is voor schattige knuffels :D

Soms is het wel leuk om te lezen, maar het maakt zomaar een verhaaltje van stukken tekst en de censoring die erop zit haalt gewoon complete delen weg, waardoor er niks van klopt.
Juist door AI word het alleen maar ingewikkelder dan gemakkelijker want nu kan je eerst nog eens gaan checken of datgene wat AI dan beweerd ook werkelijk klopt.
Maar je hebt daar gewoon een AI voor om dat voor je te checken
Nee daar zijn de factcheckers voor. Die weten het heus wel beter ;)
Ik denk dat het altijd goed zal blijven om zelf na te blijven denken. Iets kan wel ergens opgeschreven worden maar dan hoeft het echt nog geen waarheid te zijn. Als je met AI bezig bent en je zit een beetje in een niche (waar niet zo lekker op getraind is) dan geeft die echt geregeld verkeerde antwoorden. Maar wat je altijd kunt doen is vragen naar een bron. Sinds gpt 3.5 gaat openai dan gewoon online zoeken naar zijn bevestiging. En door de bron(nen) te lezen kun je zelf een conclusie trekken.
Zeker moet je altijd je eigen verstand gebruiken en altijd b.v. dan meerdere bronnen bekijken. Het punt is alleen dat AI je zo opgedrongen word.
Ja microsoft loopt AI echt flink te pushen. Deze week startte ik een keer edge (ik ben een verstokte Firefox gebruiker) en ging naar Bing (op een schone windows 10 installatie) om iets te testen en ik schrok me rot van de banners en AI wat inderdaad door je strot geduwd wordt.

Dan is NixOS met Firefox, Duckduckgo, ublock op swaywm wel een verademing haha :)
Hoe AI is het dan te noemen, als de chatbot je vraag eigenlijk indirect gewoon opzoekt op het internet
Het is nog minder slim dan dat, het gaat uit van kansberekening.

Het heeft verder helemaal nul besef van wat de woorden individueel betekenen.

De vraag is alleen hoe belangrijk dat is. Als je maar genoeg data hebt, kan je wel degelijk wat over de wereld vertellen wat klopt. Puur op kansberekening.
Alles wordt tegenwoordig maar AI genoemd, maar echte AI bestaat (nog) niet, het zijn allemaal (hele knappe) modellen en algoritmes, maar het is zelf niet intelligent, het kan zichzelf niet verder ontwikkelen, het kan geen waarde toekennen aan wat ze gegenereerd hebben, en achter de schermen worden je vragen compleet herschreven om tot "maatschappelijk gewenste uitkomsten" te komen zonder terug te koppelen aan je hoe je opdracht herschreven is of hoe die aan het antwoord gekomen is. Zie bijvoorbeeld een paar maanden terug dat Google Gemini die onjuiste historische personen tevoorschijn kwam. Hoe komt Gemini tot dat resultaat? Het is een grote zwarte doos waarvan je zelf eigenlijk niet eens weet wat je erin stopt, en ik maak me wel eens zorgen over de inzet van al die zogenaamde "AI".

[Reactie gewijzigd door Transportman op 22 juli 2024 22:38]

Sinds dat ze t van internet hebben geblokkeerd en zelf alleen nog data voeren is t inderdaad beetje mwhoa geworden.
Het is ook geen "AI", want het is niet intelligent. Het is een large language model dat getraint met behulp van machine learning technieken. Maar dat wordt alleen gedaan om het te trainen. Als je het gebruikt is het alleen maar een hoop (miljarden) berekening met vaste coefficienten dat woorden genereert

[Reactie gewijzigd door MeMoRy op 22 juli 2024 22:38]

Mooi staaltje newspeak.

Uiteraard proberen ze recht te praten wat krom is, het is in hun eigen belang.

Ik heb het gevoel dat Google wat over de top heen is; de basisfunctie van Google is minder goed geworden. Zoeken levert vooral heel veel geoptimaliseerde websites op van grote (media)bedrijven, veel reclame en weinig echt goede resultaten. Ook hun AI komt wel erg vaak negatief in de kijker en ik snap waarom: zelfs op hun eigen presentaties gaat het mis. [1] [2]

Ook zijn ze nu al aan het testen om reclame aan de AI-antwoorden toe te voegen. Zo kun je toch niet meer vinden? [3]

[Reactie gewijzigd door Aegir81 op 22 juli 2024 22:38]

In het verleden zeiden ze mij MS als je wil vinden gebruik je Google en als je wil zoeken Bling. Maar nu is het ook zoeken geblazen bij Google, en niet alleen een week of maand. Dat idee heb ik al iets langer.
Precies, lees maar gewoon wat google wil dat je leest, accepteerd dat en stel verder geen vragen. Je krijgt toch het zelfde antwoord
Pf, ik dacht ik zal het even vragen over 3 verschillende soorten hout zaag machines, komt ie met 3 zaag machines van bekende merken die totaal niet bestaan. Nee, Gemini is het nog niet echt.
Ja maar dat was enige tijd geleden niet zo.
Ik merk nu ook ineens issues. Ai vragen toevoegingen te doen en dan voorgaande toevoegingen achterwege laten. Iedere toevoeging vergst ie wat anders in stand te houden.
Daarvoor nooit last van gehad.

Bewust om mensen het gevoel te geven dat het nog best wel dom is.

Je kancwel je historie nu laten staan, zodat ai daar eventueel kan gebruiken in latere gesprekken, maar in 1 sessie is t ineens een probleem?
Right.
Ik gebruik regelmatig de rekenmachine van Google /Bing et cetera. Nu heeft Bing besloten dat ze rekensommen niet meer door de klassieke rekenmachine doen, maar ze graag een taalmodel gebruiken. Niet alleen kost dat waarschijnlijk 10x zoveel serverkracht, hij heeft het ook gewoon vaak fout :+
Volgens mij is het gewoon een typische kwestie van bagger erin, bagger er uit. In principe geeft dat ding gewoon antwoord op de vraag op basis van antwoorden die hij binnen zijn dataset kan vinden. Vanuit technisch perspectief wordt er ook gewoon een correct antwoord gegeven. Dat dat antwoord sociaal onwenselijk is is een héél ander verhaal. Het zal juist de uitdaging dergelijke antwoorden ertussen uit te filteren, maar daar waar de meningen over wat een sociaal wenselijk antwoord is, zal men altijd antwoorden krijgen die iemand niet aanstaat. Persoonlijk zou ik als er een optie was om dergelijke filters uit te zetten daar graag gebruik van maken. Ik ben niet altijd opzoek naar sociaal wenselijke antwoorden. Ik heb liever feitelijk kloppende antwoorden waar ik zelf over kan nadenken wat ik er mee doe.

Ik zal een voorbeeld geven. Ik kan mij zomaar voorstellen als je de vraag stelt "hoeveel Joden zijn er exact omgekomen gedurende de Holocaust?" Dat je dan een antwoord krijgt als "Geschat..." Maar dat is de vraag niet. Ik heb liever een antwoord als "het exacte aantal is onbekend." Wat feitelijk natuurlijk wel correct maar misschien niet wenselijk is. Als ik vervolgens een schatting wil, dan kan ik daar wel naar vragen. Dat er een schatting getoond wordt, dan vind ik dat in deze ook wel acceptabel, maar ik realiseer me ook dat als je een vraag stelt en je geen echt antwoord krijgt op je vraag maar een antwoord wat daar wel aan gerelateerd is ook een vorm van manipulatie met zich mee kan brengen en dat het lastiger zal zijn de werking van het algoritme onafhankelijk te toetsen. Dat maakt ons dus afhankelijk van de goodwill van de bedrijven die deze AI ontwikkelen, maar deze hebben ook een belang en zijn mijns inziens in die zin dan ook simpelweg niet te vertrouwen.
Eens. Sowieso zou het een grote stap vooruit zijn als AI zou kunnen 'toegeven' iets niet te weten. Maar van wat ik begrijp is dat erg lastig op dit moment.
Waarom? Ai moet gewoon vrij zijn.
Dat ai zon antwoord geeft moeten we ai niet aanrekenen maar onszelf.
Misschien gaan we dan nog eena normaal doen op internet :Y)
Precies, of in ieder geval de ontwikkelaars of uitbaters van de AI tool. Van mij mogen mensen ook zeker wel gebruik maken van dergelijke filters, maar ik denk dat het beter is om dat soort instellingen aan de gebruiker over te laten en niet aan fabrikanten met hun eigen belangen. Transparantie is in deze van groot belang en als we dit aan "de markt" over laten, dan weten we van tevoren al hoe dat er ongeveer uit gaat zien en dat lijkt mij niet wenselijk.
Ben ik de enige die hier hard om kan lachen? Natuurlijk geen goed antwoord voor iemand die echt depressief is, maar nondeju het is ook wel erg droogkloterig :P .

Wat nu als het helemaal geen fout was maar er op dezelfde vraag door de meeste mensen op zo'n soort manier is gereageerd en dit dus procentueel gezien wel degelijk vaker voor komt dan de andere maatschappelijk wenselijke antwoorden?

Wie weet springt zo iemand juist niet, omdat die er zelf ook wel om kan lachen 8)7
Als het gebaseerd is op trollen die mensen op sociale media daadwerkelijk aangezet hebben tot zelfmoord, en dat komt veelvuldig voor, dan is het antwoord een logisch gevolg van menselijke interacties die voorkomen en traingingsmateriaal voor AI is geweest.

Dat duid direct het gevaar van AI, onze bias, anders gezegd egoïstische neigingen zoals pleonexie kunnen versterkt naar boven komen. Daarom kan het goed zijn dat AI de mens niet zal helpen, maar het process van industriële destructie versneld. Geen enkel bedrijf wil een AI die geen ondersteuning bied voor de vraag naar meer, beter, sneller, groei etc.
Als het gebaseerd is op trollen die mensen op sociale media daadwerkelijk aangezet hebben tot zelfmoord, en dat komt veelvuldig voor, dan is het antwoord een logisch gevolg van menselijke interacties die voorkomen en traingingsmateriaal voor AI is geweest.
Sterker dan dat, het is een logisch gevolg van de handelwijze van Google, omdat ze die trainingsdata bewust aangeschaft hebben. Ze hebben een deal met Reddit, waar naast waardevolle content een heleboel van dit soort trollen en misinformatie te vinden is. Als je dat aan zo'n AI voert, dan komt het er op een gegeven moment ook weer uit. Dus dit is ze wel degelijk aan te rekenen.
Ben je nou zelf niet trollerig bezig, door Google het verwijt te willen maken dat ze met opzet AI creëren dat aanzet tot het verschaffen van foute informatie?
Helaas is data-analyse vooralsnog de enige manier om AI te trainen.

[Reactie gewijzigd door babbeloo op 22 juli 2024 22:38]

Ik vind dit niet "trollerig". Google kiest er bewust voor om AI op deze manier in te zetten op hun vlaggeschip product. Dat AI compleet verkeerde en soms gevaarlijke antwoorden gaat geven is geen verassing, zoals DJ henk al aangaf. Ik ben met je eens dat deze flawed methode van massale data analyse de enige manier is om AI te trainen, maar er is nergens een wet die iets zegt als "gij zult AI gebruiken om antwoord op zoekopdrachten te geven".

Als google dat graag wel wil doen is dat prima, maar dan zijn ze natuurlijk gewoon verantwoordelijk voor de resultaten van hun product.

Dus: ja, google heeft bewust het risico genomen om mensen te vertellen om zelfmoord te plegen (of om lijm op je pizza te doen). Dat ze niet wisten dat dit specifiek ging gebeuren is volgens mij geen excuus; dat dit *soort* dingen zouden gaan gebeuren is geen verassing.
Google zegt ook dat 'in veel voorbeelden' antwoorden naar boven kwamen die waren gebaseerd op 'sarcastische of trollachtige content op forums'. Het bedrijf erkent verder wel dat AI Overview in 'een beperkt aantal gevallen' taal verkeerd interpreteerde en foutieve informatie weergaf, maar het ontkent dat AI Overview hallucineert.

Garbage in, garbage out. Goed gedaan hoor, google.
Hallucineert misschien niet maar is wel vrij nutteloos.
Ik denk idd dat de heilige graal op dit moment AI is die sarcasme en trolling kan herkennen. Gaat nog wel een paar jaar duren denk ik omdat bij veel sarcasme de context ook een grote rol speelt.
Optimistisch een paar jaar, als vooral de nu grote AI techbedrijven gelijk hebben en AGI bereikt kan worden simpelweg door LLM's op te schalen.
Maar veel AI academici denken dat opschalen niet genoeg is, en er een zgn World Model nodig is. En eigenlijk is al gebleken dat dat een stuk lastiger/tijdrovender is dan de ontwikkeling van Large Language Models, anders zou het al ontwikkeld zijn.
In veel gevallen gaat het dan om vragen die in het begin al nergens op slaan, zoals de vraag 'hoeveel stenen je het beste dagelijks kunt eten'. "Voordat deze screenshots viral gingen, vroeg praktisch niemand dat aan Google", zegt het bedrijf.
Jaja, zeg gewoon dat je the onion gebruikt hebt om mee te trainen :+
https://www.theonion.com/...small-rock-per-1846655112
Nou ze hebben misschien niet The Onion gebruikt, maar wel reddit...

Op dit item kan niet meer gereageerd worden.