Google haalt AI-model Gemma uit AI Studio na ophef

Google heeft zijn lichte AI-model Gemma uit zijn dienst AI Studio gehaald na ophef over een onjuiste beschuldiging richting een Amerikaanse politicus. Gemma is nog wel te benaderen via de api, zegt Google.

Google merkte dat gebruikers die geen ontwikkelaar zijn via AI Studio Gemma allemaal feitelijke vragen gingen stellen, zegt het bedrijf. "Het was nooit onze bedoeling dat dit een consumententool of -model zou zijn, of dat het op deze manier gebruikt zou worden. Om deze verwarring te voorkomen, is toegang tot Gemma niet langer beschikbaar via AI Studio."

Gemma wijkt af van Gemini en is lichtgewicht en opensource, zo claimt het zoekbedrijf. "Onze Gemma-modellen vormen een reeks open modellen die speciaal zijn ontwikkeld voor de ontwikkelaars- en onderzoeksgemeenschap. Ze zijn niet bedoeld als feitelijke ondersteuning of voor consumentengebruik."

De ophef kwam toen een Amerikaanse senator hoorde dat Gemma haar in een antwoord beschuldigde van seksueel misbruik. Het AI-model ondersteunde dat met onjuiste bronvermelding. "De links leiden naar foutpagina's en niet-gerelateerde nieuwsartikelen. Er is nog nooit een dergelijke beschuldiging geweest, er is geen dergelijk individu en er zijn geen dergelijke nieuwsberichten." Veel AI-modellen hallucineren en dat krijgen AI-bedrijven lastig onder controle.

Door Arnoud Wokke

Redacteur Tweakers

03-11-2025 • 11:47

69

Reacties (69)

Sorteer op:

Weergave:

Dit zijn wel de dingen die AI in een slecht daglicht plaatsen en (later) veel schade gaan aanrichten bij niets wetende, niet fact checkende gebruikers.
Is het nu anders dan? Als een beroemd persoon op een sociaal media roept dat iets zo is gaat de meute er gewoon in mee. Probleem is niet AI, probleem is dat mensen kuddedieren zijn. Zelfs officiële nieuwszenders hebben het vaak fout. Kijk bijvoorbeeld naar de zaak van Marco. Daar klopt vanalles niet maar hij was al praktisch beoordeeld toen de beschuldiging naar buiten kwam. Die man is geruïneerd voor zijn hele leven.


Onterechte beschuldigingen zouden heel zwaar bestraft moeten worden in een tijd van misinformatie en heksenjachten. Vooral op social media. Het verplichten van echte namen is zo gek nog niet.


Vroeger boeide dit niet. Bijna niemand zat op internet. Als je zei Jantje zijn geslachtsdeel klein was schold je elkaar uit en daarna ging je verder met je leven. Nu zijn er zelfs mensen die je helemaal kapot proberen te maken voor het kleinste geschil.
Tsja, dat is waarom ik social media allang de rug heb toegekeerd. Het voegt letterlijk niks toe aan mijn leven, en ik zie wel eens reacties ergens onder als "Maar op facebook stond....." ah ja dan hoef ik niet meer verder te lezen. Mijn god wat is de mens simpel geworden waar ze niet meer zelf kunnen denken of fact-checken. Zodra het op socials staat, is het een feit.

Enige wat nog in de buurt komt van wat ik doe in sociale dicussies, is dit op Tweakers bijvoorbeeld. Geen typische sociale media meer.
Mijn god wat is de mens simpel geworden waar ze niet meer zelf kunnen denken of fact-checken. Zodra het op socials staat, is het een feit.
Dat is het nadeel of keerzijde van vrij toegankelijke informatie en communicatie. Je moet je inbeelden dat maar een klein deel van de bevolking kritisch kan denken heeft geleerd hoe je nieuwe informatie moet verwerken. Vee mensen zijn slim maar overgevoelig voor misinformatie.

We zijn niet simpeler geworden, in tegendeel, maar socials bereiken nu een breder publiek die bijv al hun nieuws en wereldbeeld van socials halen.

Vroeger was men even naïef of gevoelig.
De democratisering van de openbare discussie leidt kennelijk tot een lagere gemene deler. En door de vele bomen kan je het bos niet meer zien.

En het is ook niet helemaal onschuldig. Immers, hoezeer je ook probeert kritisch te zijn, als je een stortvloed aan eenzijdige berichten leest doet het op een bepaald moment toch iets met je, denk ik.

Ik heb ook niet direct een oplossing. Overal met naam en toenaam staan is naar mijn idee ook niet de oplossing.
Volgens mij is de enige oplossing een hervorming van het onderwijs zodat kinderen al beseffen in welke informatie oorlog we leven, wat propaganda is, hoe manipulatie werkt,hoe reclame werkt, hoe je statistiek kan misbruiken, hoe wetenschap werkt, wat het Dunning-Kruger effect is, wat populisme is, wat een samenzwering is, hoe media en pers werkt, wat het belang van democratie is etc Dan kan je bijna in elk vak verwerken.

Ik heb al die dingen pas na mijn 18 geleerd en begrepen.
Daar ben ik het niet mee eens. Het is de keerzijde van mensen continue, generaties lang, ontzien van het nemen van eigen verantwoordelijkheid. Beschermen leidt vaak tot enorme schade en soms zelfs uitsterven. Waar je in het einde een dier in een soort dierentuin bewaard.

Mensen zijn geen kuddedieren. Ze gedragen zich zo afhankelijk van hun habitat. Bijvoorbeeld bij paniek. Of als ze onzeker zijn. Of als ze met velen op een klein oppervlak leven.
het probleem is, zelfs als jij niet op Facebook staat kan een ander nog wel wat over jou roepen en je leven verknallen met "alternatieve feiten".

Wat mij betreft wordt een internet-id verplicht voor Social Media.
Idem, ik heb al een jaar of 10 geleden afscheid genomen van social media, Facebook was toen al verschrikkelijk, wat nog vreemder is, mijn toenmalige detacheerder vond het vreemd dat ik geen sociaal media account had als ICT'er...
Op mijn werk vragen ze af en toe in de centrale Slack of iedereen de nieuwe campagnes even liken en delen. En dat een paar keer herhalen :+ . Ik zou niet weten hoe ik dat moet doen zonder socials :+
Dat men het vraagt, betekent niet dat je het moet doen, het wordt door marketing en communicatie bij ons ook gevraagd. Ik word er niet op afgerekend.

Maar ik zie een sales of marketing functie niet als ICT functie. Daar kun je natuurlijk van mening over verschillen zonder de clown uit te hangen.
Netjes! Ik zat vanaf het begin op Twitter (toen het nog leuk was) en ben pas 2 jaar geleden vertrokken. Als je niet op publieke streams gaat zitten kijken maar je eigen interessante stream hebt (* rant * wat mensen nu een bubbel noemen for some reason, ja idd dat is een bubbel net zoals alles in mijn leven, collega's en vrienden, die zijn ook niet totaal willekeurig). Zodoende was het behoorlijk interessant. Met alles wat er daarna gebeurde was het duidelijk exit ja, en niet veel later gingen dan ook Instagram, facebook en Bluesky. Ik zit alleen nog op Mastodon, want geen algoritme en heerlijk makkelijk een eigen bubbel te maken. :) Linked-In heb ik 2 weken geleden weg gedaan, dat was nog enigzins "spannend" voor mijn gevoel "want zogenaamd zo belangrijk", ik heb weer veel meer tijd voor andere dingen, heerlijk.
Goed voor u, maar als anderen over uw klein pietje schrijven op Facebook met een foto van u en uw naam er bij, dan ga jij het nooit weten maar al wie er wel op zit wel dus. En jij plots geen enkele like meer op Tinder...
We moeten er vooral mee leren leven dat A: niet alles dat we horen, lezen en zien, gelijk waar, correct is. en B: dat anderen hun beeld over ons fout kan zijn en we ons daar niet te veel moeten van aantrekken.
Zo probeer ik mijn kinderen toch op de voeden..
Het verplichten van echte namen is zo gek nog niet.

Nu zijn er zelfs mensen die je helemaal kapot proberen te maken voor het kleinste geschil.
En die twee zinnen botsen dus met elkaar. Zodra je overal verplicht je eigen naam moet gebruiken ben je dus ook kwetsbaar voor dat tweede.
Ik snap de insteek wel. Op het moment dat de anonimiteit weg is, dan zullen mensen minder snel onzin of rare dingen op internet roepen. Of het werkt is een tweede, want er zijn nu ook genoeg imbecielen op internet te vinden die onder hun eigen naam zelfs bekendheid verwerven met vergelijkbare onzin.
Je gaat dan uberhaubt uitkijken om wat dan ook te zeggen. Als ik het leuk vind om online politieke discussies te voeren, betekent niet dat ik die data 1 op 1 wil koppelen aan mijn professionele profiel, waar ik weinig met politiek te maken heb, maar ook geen bedrijven wil afstoten met een andere politieke mening
Je gaat dan uberhaubt uitkijken om wat dan ook te zeggen
En dat is verkeerd? Het is te makkelijk om maar van alles te roepen zonder consequenties. En er is niets mis mee om later terug te komen op iets en te zeggen "Ik zag het verkeerd" of "ik weet nu beter" of "ik ben tot nieuwe inzichten gekomen". Ofwel, verantwoordelijkheid nemen voor wat je uitkraamt.

Het is nu (online en anoniem) veel te veel een vrijbrief om maar wat te roeptoeteren.
Als je intentie is om nauwelijks interessant prikkelende discussies met tegengeluid te hebben, dan is dat inderdaad de manier. Natuurlijk is het zo dat je ook wat kort-door-de-bocht reacties filtert.

Maar vergelijk het eens met dat alle gesprekken die jij door de dag voert geannoteerd worden en online worden gegooid en voor eeuwig te vinden zijn op jouw naam. Dat is net zo min de bedoeling als een gesprek in een kleine niche groep op Facebook/X/etc. Zeker als je tegenstanders proberen om je te framen en daar alles voor gebruiken wat ze tegenkomen. Genoeg voorbeelden daarvan op X. Overigens ook genoeg voorbeelden van annoniempjes die er mee aan de haal gaan, dus voor beiden is wat te zeggen. Maar dat onder je eigen naam een magische oplossing is... allesbehalve
Er zijn ooit facebook berichten van mij naar mijn werkgever gezonden... hadden niks met het werk te maken maar ik ben er toch op aangesproken geweest. Een politieke mening kan uw job kosten...
Idd. het is bovendien een glijdende schaal. Het niet gebruiken van echte namen in journalistieke berichtgeving is er voor een goeie reden gekomen; het beschermen van iemands identiteit zolang een proces loopt. (en dat kan lang zijn), en het vermoeden van onschuld.

Het mag dan nog ZO knagen aan het been van diegenen die dit graag anders zouden zien, het is gelukkig -jammer voor hun misschien- een fundament van een democratische rechtstaat. Raken we dat kwijt, dan kunnen we evengoed terug naar straatjustitie en lynchpartijen door de menigte, geen proces meer, gewoon op straat beslissen op basis van woede, angst, onderbuik en groepsdruk.

...maar ik ben het wel eens dat het probleem niet zozeer te zoeken is in AI, maar in hoe "de mens" om gaat met informatie en groepsdruk en sociale constructen en dat dit de reden is dat we, bijna anno 2026 zo ver afgedwaald zijn -als maatschappijen- in desinformatie en pertinent, aantoonbaar onjuiste denkbeelden.

Bvb. nooit waren bepaalde absurde, aantoonbaar onjuiste ideeën zo groot als dat ze nu zijn, en dat hebben we te ""danken"" aan o.a. social media en het gemak waarop (des)informatie verspreid kan worden.

...het hallucineren van AI helpt hier echt niet aan...

[Reactie gewijzigd door PinusRigida op 3 november 2025 13:09]

Heel verwarrende tekst.

Ik wil alleen even zeggen dat ik vind dat je AI perfect verantwoordelijk kan houden voor zaken die als feitelijk voorgesteld worden. De enige uitzondering zijn natuurlijk modellen die hier helemaal niet voor gemaakt zijn. Idealiter zegt zo'n model dan ook dat het daarvoor niet gemaakt is.

[Reactie gewijzigd door NoTechSupport op 3 november 2025 12:35]

Dat kun je doen, maar wat betekent "verantwoordelijk"? Wil.je dat Google straf krijgt dat dit model valse beschuldigingen heeft gemaakt? Door de werking van LLMs valt dit niet echt te voorkomen.

Misschien wel iets in de zin van nalatigheid als ze het niet proberen / niet waarschuwen.
Nou ja... Van autofabrikanten verwachten ze ook dat ze deugdelijke wagens produceren, hoewel het natuurlijk makkelijker en goedkoper is om dat niet te doen. Waarom zouden we big-tech bedrijven toestaan wel zaken te produceren die niet bevorderlijk zijn voor de bevolking?

Het argument "dat is inherent aan LLM's" lijkt me ongeldig: een inherent onveilige auto (eentje zonder gordels/airbags, om maar een stom voorbeeld te noemen) is natuurlijk makkelijker en goedkoper te produceren, maar staan we niet toe
Da's wel waar, je kunt een bepaald niveau verwachten. Natuurlijk blijft ook een motorfiets gevaarlijker dan een auto, maar ook daar verwacht je werkende remmen en is ABS verplicht.
.

[Reactie gewijzigd door Alxndr op 3 november 2025 13:43]

Het verschil is wel dat als een persoon iets roept en het blijkt laster te zijn, dat er dan in ieder geval mogelijkheden zijn om die persoon aansprakelijk te stellen. Bij AI is dat totaal niet zo, Google hoeft alleen maar een disclaimer te plaatsen dat de antwoorden niet correct hoeven te zijn en dat is het dan.

Een ander belangrijk verschil is reikweidte en autoriteit. Je kunt wel zeggen dat 'een beroemd persoon maar iets hoeft te roepen' maar volgens mij valt dat reuze mee. De intersectie van mensen die genoeg bereik hebben om invloed te hebben, en mensen die naar ze luisteren en het signaal versterken is vrij klein, en natuurlijk iets totaal anders dan Google met een bereik van 3 miljard gebruikers ofzo, en ook nog eens de reputatie (zelf jarenlang gecultiveerd) dat je met Google 'alle informatie van de wereld kunt opzoeken'. Dat legt toch net iets meer gewicht in de schaal dan dat een of andere influencer iets roept op internet denk ik.
Zelfs officiële nieuwszenders hebben het vaak fout.
Zelfs officiële nieuwzenders hebben het te vaak fout. Vaak leest bij mij als het merendeel, waar ik 5% al als te veel zou bestempelen.
Vroeger boeide dit niet. Bijna niemand zat op internet.
Ik denk dat het een reikwijdte probleem was.... het boeide wel maar veel minder hoorden ervan. En zodra je het van meerdere hoort - wat eerder gebeurt als meer het horen - is het effect groter.

Roddel en achterklap is altijd funest geweest en hoge bomen vangen veel wind....

Mensen zijn niet eens zozeer kuddedieren [in deze context] - mensen houden stiekem wel van 'drama''- zolang het afleidt van de eigen (wellicht saaie of juist vervelende of juist verdrietige) dagelijkse sleur.

Niet iedereen geeft hier overigens om. Sommige mensen hebben pas interesse als het raakvlak groter is en anderen hebben automatisch een groot raakvlak met 'beroemdheden'.

En laster is al verboden natuurlijk maar we zijn inmiddels weer naar de andere kant doorgeslagen; als iemand al roept dat 'verkeerd gekeken' werd, dan is het al een aanval of aanranding. Wat niet wil zeggen dat het altijd oevrdreven is overigens. Maar het is een simpel effect; als te vaak 'cry wolf' wordt gedaan en het blijkt vals alarm dan reageert men niet meer. Maar dan; als het opeens wel het geval is dan reageert men weer veel te extreem [voor enige tijd].

Golfbewegingen...
Er is niet genoeg negativiteit over AI want de politiek denkt nog steeds dat alles goed blijft gaan zonder regulatie. Dus ja, meer negativiteit en meer aandacht voor AI regulatie moet voor de toekomst van de mens maar het is er niet en lijkt er ook niet te komen.
In feite is dat ook niet zozeer alleen een AI probleem. Het effect van laster en manupilatie is gewoon te groot. Dat het nu de AI is die de laster aanbrengt wil niet zeggen dat mensen dat ook niet doen.
En manupilatie: dat is nu juist iets wat niet altijd ongewenst is (wel vanuit de degene die gemanupileerd wordt). Stellen dat AI beter moet [als in: minder hallucinaties] is een open deur...

Dat een tool niet altijd betrouwbare resultaten geeft is net zo erg als mensen die dat niet doen... maar wonderlijk genoeg weten we van politici dat ze niet altijd betrouwbaar zijn [omdat ze soms willen/moeten manupileren]. En dat accepteren we gewoon....

En zelfs als we weten dat de AI niet zo betrouwbaar is.... accepteert men dat ook gewoon....
dom.... maar zo ver zijn we nu gekomen.... onbetrouwbaarheid als een gegeven en derhalve geaccepteerd.
Goede zaak. Het publiek is niet klaar voor het gebruik van AI-chatbots, en de AI-chatbots zijn niet klaar voor het publiek. Zolang de kans overwegend groot is dat er foutieve informatie uit zo'n LLM komt is het simpelweg niet verantwoord om het los te laten op de maatschappij. Dat wordt steevast nu wel gedaan omdat het een race is van en voor tech-bro's die puur wordt gepushed door het mandaat niet achter te kunnen raken op de competitie en geld. Heel veel geld. Ondertussen wordt ons stroomnet leeggetrokken voor het genereren van steevast discutabele informatie en ga zo maar door.

Voeg daar aan toe dat er nagenoeg geen regelgeving of controle is op deze diensten of dat het zwaar achter loopt op de realiteit en je kunt wat mij betreft niet anders dan toegeven dat het een zooitje is en dat het alleen maar goed is dat het publiek terecht het vertrouwen kwijtraakt in AI-chatbots totdat het wél bewezen betrouwbaar blijkt om te gebruiken.
Dit is gewoon de keiharde kern van LLM's. Ze doen dit allemaal, alleen hebben veel modellen hier dan weer een laag voor ingebouwd die dit probeer te voorkomen of in ieder geval beter verstopt
Klopt. En die schuld ligt in deze volledig bij Google. Google had deze LLM dus hard moeten coderen om geen 'feitjes' als antwoorden te geven. De LLM is ontworpen ter ondersteuning van softwareontwikkeling en research. Het moet dus niet wistjedatjes gaan oplepelen. Nou is de grens tussen wistjedatjes en research allicht grijs, maar het is niet zo dat Google geen ervaring heeft met softwareontwikkeling. Ze hadden moeten zien aankomen dat dit een ding zou worden.
Vooral schade bij de slachtoffers van de misinformatie. Die niets wetende, niet fact checkende gebruiker komt er meestal vanaf met 'sorry, domme ai en vergeten te factchecken'.
Veel mensen begrijpen niet wat AI is. Ze weten niet dat het een algoritme is welke getraind is met "halve" waarheden van het internet, en de niet bekende tussenliggende waarde, probeert te voorspellen op basis van gelijkwaardigheden. Wel vraag ik me af hoe deze dan nog een bronvermelding kunnen hebben. Maar ik verwacht dan deze bronvermelding ook over iets complete anders gaat of dat 2 zaken verkeerd worden gelinked.
Tja, AI schraapt klakkeloos van alles van het internet. Er wordt heel weinig gedaan aan een betrouwbaarheidsindex of fact checking. Omdat de eenvoudige modellen werken met een algoritme wat de meeste kans berekend voor het volgende woord in een zin kunnen leugens over de ene persoon ook wel eens op een ander overspringen.

AI is leuk en nuttig, maar wat betreft de informatie die je krijgt is die nog lang niet altijd juist. Om van een paar kreten een mooi verhaal te maken, daar is AI prima in. Je mag zelfs een schrijfstijl opgeven en in een mum van tijd krijg je een mooie tekst.
Ze zouden een conclusie traceerbaar kunnen maken. Waar is het ontstaan?
AI 101. Als je een beperkt doel hebt voor je AI, zorg dan ook dan hij binnen die lijntjes blijft.

Je kan er van uitgaan dat mensen vragen stellen buiten die kaders. Als dan niet moedwillig. Daar moet je rekening mee houden bij de ontwikkeling.

Helpdesk AI? Alleen vragen beantwoorden die over je eigen product of dienst gaan. Programmeer-AI? Waarom zou die vragen over politici überhaupt beantwoorden?
Mensen gebruiken het sowieso onnodig voor feiten.

Ikzelf gebruik het enkel voor:
  • Project sparren (bij opstart van een project of als ik ergens op vast loop, komen vaak nuttige dingen uit die ik met mijn bepertke brein vol rottigheid niet zo snel had kunnen bedenken)
  • Mee laten denken over een technische kwestie als ik aan het klussen ben (ik zie het wel als ie rare dingen roept)
  • Stukje tekst laten verreiken op basis van keywords en context
  • Tekst samenvatten en de kernpunten eruit laten halen
  • Document / tekst laten analyseren
Ik gebruik AI niet als bron voor nieuws, feiten over de maatschappij, of om een keuze te maken rondom politieke keuzes.
Vind het als begin voor een zoekopdracht vaak ook wel handig. Voor wat aankopingspunten. Naam van een acteur uit een film of serie bijvoorbeeld. Vervolgens naar diens wikipedia/imdb pagina. Of zelfde voor een bepaald concept, en dat later verder uitdiepen met “echte” bronnen.
Klopt, wat ik wel eens doe, als ik een serie uit heb, begin ik een chat met:

"Ik heb net deze serie uit, ik vond de sfeer heel goed, en de acteurs ook goed. Wat is vergelijkbaar?"

Dan creeer je een soort 'sociale' chat waar je gaat sparren om vergelijkbare content. Dat sparren is een AI wel goed in met zulke dingen vind ik. En dan komen er best goede resultaten uit.

Maar het scheelt dat een AI voor zulke informatie een goede eenvoudige bron heeft zoals IMDB. Waar niet veel te 'verkloten' valt denk ik.
Maar... je kunt niet gewoon via een normale zoekmachine naar de wikipedia/imdb-pagina van acteurs e.d.? Ik snap echt niet dat zoveel mensen AI als een zoekmachine gebruiken voor queries die net zo goed werken op traditionele zoekmachines, maar met AI 10x meer stroom gebruiken.
Voor een simpele brainfart zoals "wie spelen er ook alweer in deze film" is de drempel heel laag om op Android de zijknop ingedrukt te houden, typen of praten in 1 kleine zin, en direct je antwoord op het scherm te zien.

Ja je kan ook je telefoon unlocken, de browser openen, dan daar intypen, of IMDB openen met een enorme berg reclame van Amazon zelf, en daar zoeken, maar met Gemini op een vaste knop is het wel een nog kleinere drempel.
Dat argument is een beetje omzeep geholpen door de traditionele zoekmachines. Als ik nu in Google iets intyp krijg ik meteen een AI samenvatting die de vraag al in een grotere context beantwoordt. 🤷‍♂️
Vaak veel sneller via een AI. Zeker als het om side characters gaat.
Omdat we eenvoudig ertoe worden gedwongen. Er is geen standaard vinkje om het uit te zetten zeg maar.
Nee want Gemini is zo feitelijk correct... :+
Voorlopig blijft dat hallucineren van LLM nog wel even: Why Language Models Hallucinate.
Sowieso is politiek iets waar een AI verre van moet blijven/houden. Het is zo subjectief als de pest, laat staan eerlijke/complete informatie.

Geschiedeniszaken (bijvoorbeeld was Hitler een communist?) of definities (what is marxisme) is natuurlijk iets anders.
Zelfs met geschiedeniszaken kom je snel in de problemen. Wie heeft JFK vermoord? Zijn er mensen op de maan geland? Is de aarde rond? Is Hitler echt dood? Lijken zulke basale vragen waarop elke leerling van de basisschool het antwoord zou moeten weten maar er zijn zoveel mensen op internet die het antwoord ter discussie willen stellen dat AI ook best eens het verkeerde antwoord zou kunnen geven.
Ja inderdaad. Daarom is het scrapen van socials door een AI lastige zaak.

Kan me indenken dat afhankelijk van hoe goed je de informatie modereert kan een AI echt wel goed differentiëren tussen wat "echt" is en "nep" is aan de hand van geverifieerde literatuur, maar als je het klakkeloos alles voert kan het, net als de mens, onzin als waarheid verkondigen als je het maar vaak genoeg te horen krijgt.
Dit gebeurt bij Gemini ook. Las op X laatst een verhaal van iemand die google ging aanklagen omdat Gemini hem consistent beschuldigd van misdrijven, inclusief gegenereerde niet bestaande slachtoffers, rechtzaken en getuigen verklaringen.

Erg gevaarlijk dat hallucineren.

[Reactie gewijzigd door Rogers op 3 november 2025 12:12]

Ik verbaas me ook elke keer weer als er hier iemand output van een AI post als antwoord op een vraag. Dat heeft letterlijk hetzelfde gewicht als "mijn buurman zei laatst". Laatst stelde ik een simpele juridische vraag aan AI, vroeg om een bron voor het antwoord, en kreeg twee links waarvan eentje een random post op het Fok! forum was. Dus AI is niet meer dan "iemand op het internet zei laatst".
Het is gevaarlijk om op het antwoord van AI te vertrouwen omdat het correct kan lijken maar niet altijd is.

Ik probeerde pas van perplexity wat jaargetallen te krijgen mbt herverkiezingen, leek in eerste instantie goed, maar vervolgens kwamen er in mijn vervolg vraag tegenstrijdige datums uit en de vraag daarop weer. Uiteindelijk was het niet te vertrouwen.

Is wel lastig want als het 100% goed zou werken is het een ontzettend krachtige tool om vlug informatie te aggregeren.
Als je een nieuwe naam maakt, met de voornaam en achternaam van 2 verschillende fictieve schurken, dan bedenken LLM's er daar fictieve misdaden bij.
Ophef, een veel gebruikt woord deze tijden.
Je wordt gedownvote, maar uit het artikel zie ik ook niet waar de ophef te vinden is. Alleen een referentie naar een post van Google, maar niks over waar deze 'ophef' te vinden is.
Eh, de titel?
Google haalt AI-model Gemma uit AI Studio na ophef
Laat maar, ik las je reactie verkeerd

[Reactie gewijzigd door Elorad op 3 november 2025 12:45]

Goed punt.

Titels zijn vaak nogal overdreven tegenwoordig. Experts zijn geschokt, de oppositie is woedend, klanten zijn het spuugzat, en de concurrentie is natuurlijk moordend.

"Google zet web-toegang op slot vanwege onbedoeld gebruik" was passender geweest.
onjuiste beschuldiging richting een Amerikaanse politicus.
Republikeinse Senator Marsha Blackburn die van sekueel misbruik wordt beschuldigd.
....Ik denk ik zet het er even bij. voor de volledige beeldvorming van dit nieuwsbericht.
De ophef kwam toen een Amerikaanse senator hoorde dat Gemma haar in een antwoord beschuldigde van seksueel misbruik.
Staat toch in het artikel? Of heb jij een bron waar die beschuldiging daadwerkelijk wordt gedaan en die je er niet bij vermeld? Want nu voegt het niet veel toe verder.
[...]

Staat toch in het artikel? Of heb jij een bron waar die beschuldiging daadwerkelijk wordt gedaan en die je er niet bij vermeld? Want nu voegt het niet veel toe verder.
Als je een nieuwsitem post. en het betreft een publiek figuur lijkt me het toch logisch om te posten om welke persoon het gaat en welke rol die persoon heeft. of mag dat van jullie niet ?
Lijkt me juist goed dat de naam er niet bijstaat, heeft hier op Tweakers weinig toegevoegde waarde. En kan juist er voor zorgen dat ze meer in verband gebracht wordt met onjuiste informatie.
Lijkt me juist goed dat de naam er niet bijstaat, heeft hier op Tweakers weinig toegevoegde waarde. En kan juist er voor zorgen dat ze meer in verband gebracht wordt met onjuiste informatie.
Ik las het artikel en wilde weten wie/wat het was. (en misschien andere mensen ook)
lijkt me vrij normaal. in andere nieuwsberichten wordt dit ook benoemd.
maar kennelijk hebben mensen zoals jij daar veel moeite mee.

[Reactie gewijzigd door Firestormer op 3 november 2025 17:00]

Het is slim dat jullie niet de naam gebruiken want dan leert ChatGPT ineens dat die mevrouw beschuldigd wordt (alsof er echte beschuldigingen van verkrachting zijn). Dat hele LLM gebeuren begint de spuigaten uit te lopen vind ik

[Reactie gewijzigd door KorporaalTimmer op 3 november 2025 13:06]

Tool welke bekend is dat hij hallucineert, hallucineert. "Hey maar dat mag niet hoor"


Om te kunnen reageren moet je ingelogd zijn