Door Arnoud Wokke

Redacteur Tweakers

Google AI-modus in Europa: stap met grote, mogelijk negatieve gevolgen

08-10-2025 • 06:00

90

AIaiai

De setting: een Google Meet. Het onderwerp: de AI-modus van Google die naar Europa komt. Het publiek: ongeveer honderd Europese journalisten en contentmakers. Bigtechbedrijven zijn zelden goed bereikbaar om écht kritische vragen te stellen, dus toen na de presentatie het halfuurtje voor vragen was aangebroken, kropen veel van de journalisten in de digitale pen.

"Nu, met AI-overzichten en de nieuwe AI-modus", zo begon een Italiaanse journalist, "stelen Google en andere AI-bedrijven content zonder enige compensatie. Is dit geen piraterij? Google Nieuws daarentegen heeft zelfs uitgevers uit Google Showcase verwijderd die niet in de Google Nieuws-app of -website verschijnen. Gaat er iets veranderen, of moeten we op zoek naar een andere carrière?"

De antwoorden waren, zoals dat wel vaker is, ontwijkend. Google-topmensen, zoals ook Hema Budaraju, vice president van productmanagement bij Google Search, zijn erop getraind om te antwoorden zonder écht te antwoorden. Dus op vragen zoals deze kwamen antwoorden als. "Zoals jullie allemaal weten, kunnen websites ook om verschillende redenen te maken krijgen met een daling van het verkeer, waaronder seizoensgebonden vraag vanuit een AI-perspectief of vanuit een onderzoeksperspectief. Ze geloven dat het verkeer naar het web vanuit zoekmachines in totaal stabiel blijft. We zien niet de dramatische algemene dalingen die externe bronnen beweren, en we blijven dagelijks miljarden klikken naar websites sturen."

Google Search AI Mode

AI in de zoekmachine: het ligt gevoelig

De vragen van de Europese journalisten zullen geen verrassing zijn geweest. AI-overzichten in Google-zoekresultaten kwamen uit in mei. In juni volgde een antitrustklacht van Europese media. Volgens zakenkrant The Wall Street Journal hebben AI-overzichten, net als bij andere AI-chatbots, al wel gezorgd voor een instorting van doorverwijzingen en onlineverkeer voor uitgevers. Google spreekt deze bewering tegen en stelt dat nieuwe AI-ervaringen in zijn zoekmachine juist meer vragen opleveren. Dat geeft volgens Google weer nieuwe kansen voor content en voor bedrijven.

Nu zijn het media die aan de bel trekken, maar dit geldt voor veel meer soorten websites. Met AI-modus doet Google het googlen voor de gebruiker en analyseert de resultaten. Om maar een voorbeeld te gebruiken van Google zelf: AI-modus kan een overzicht van je maken met tabel voor de diverse manieren van koffie zetten. Die informatie komt van sites voor koffieliefhebbers, die de inkomsten grotendeels danken aan advertenties.

Google AI Mode im Deutsch
Google AI Mode auf Deutsch

Google beweert dus dat het dagelijks nog miljarden kliks doorstuurt naar websites en dat is ongetwijfeld waar. Ook zegt het dat de kliks uit AI-overzichten en AI-modus van hogere kwaliteit zijn. In plaats dat mensen klikken op een zoekresultaat en snel weer de site verlaten, blijven ze langer. Ook dat is ongetwijfeld waar, maar als veel sites rapporteren minder verkeer vanuit Google te krijgen, is dat een duidelijk signaal dat er iets aan het veranderen is.

Daarmee verandert Google namelijk de 'deal' die het heeft met website-eigenaren. Die deal is dit: website-eigenaren laten hun site indexeren en opnemen in zoekresultaten in ruil voor verkeer vanuit zoekmachines. Nu Google minder verkeer stuurt naar sites, is het belang om je te laten indexeren dus minder groot.

Daarbij is het belang van Google niet heel anders en handelt het bedrijf deels tegen eigen belang in. Immers, zonder de inkomsten uit internetverkeer zal een deel van de huidige sites van het internet verdwijnen of zich niet langer laten indexeren door Google. Die dienen als bron van informatie voor Googles AI-modus, die daardoor minder informatie kan geven. Een oplossing om die sites levend en in de index te houden is dus op lange termijn in het belang van het zoekbedrijf.

Google AI-modus scrapet de BBG en laat de resultaten zien
Google AI-modus scrapet de BBG en laat de resultaten zien

Wat gebruikers gaan merken van de Google AI-modus

Handen omhoog: wie vindt dat de zoekmachine van Google afgelopen jaren betere resultaten geeft? En wie vindt dat het minder is geworden? Google lijkt het tij niet mee te hebben, want met de komst van AI-troep in de zoekresultaten klaagt een deel van de gebruikers over mindere zoekresultaten dan voorheen.

De AI-modus is vooral een chatbot in de zoekmachine. Het is niet helemaal hetzelfde, want hij leunt vooral op data die online te vinden is in plaats van data uit de training, maar het verschil is uiteindelijk niet enorm. De AI-modus is vooral een manier om te zorgen dat meer mensen AI van Google gaan gebruiken.

Dat is logisch. In de markt voor kunstmatige intelligentie ligt de race nog helemaal open en Google gebruikt de posities die het heeft om de eigen kunstmatige intelligentie te integreren in het dagelijks leven van gebruikers. De zoekmachine, de populairste dienst van het bedrijf, is de aangewezen plek. De andere plek is uiteraard Android, waar het Gemini heeft ingebouwd.

Google AI Mode advertentiesEr komen ook advertenties in de AI-modus, maar die zijn er vooralsnog niet. De eerste experimenten daarmee lopen in de VS en zullen ongetwijfeld later naar Europa komen. Dat is vooralsnog een lijstje gesponsorde links onder het resultaat, hoe zich dat gaat ontwikkelen is nog onbekend.

Dan is er nog de vraag van energieverbruik. Vragen die je via AI-modus stelt, verbruiken meer energie dan reguliere zoekopdrachten. Google hoopt daarbij de AI-antwoorden op termijn efficiënter te maken en zorgt dat AI-modus alleen zichzelf aan het werk zet als het echt nodig is, niet voor simpele zoekopdrachten.

Bovendien is AI-modus niet het eindpunt, zegt Budaraju. "Als we nadenken over de toekomst van zoeken, denken we vooral na over hoe we zoeken moeiteloos kunnen maken met AI. We zien dat mensen steeds moeilijkere en complexere vragen stellen. AI-modellen zijn krachtiger. Het is ook een voorproefje van wat er komen gaat, en na verloop van tijd zullen functies en mogelijkheden van de AI-modus in de reguliere zoekmachine komen."

Tot slot

De AI-modus brengt de ervaring van vragen stellen aan een AI-chatbot naar de Google-zoekmachine, een van de bekendste sites van het internet. Dat kan allerlei gevolgen hebben. Websites en media vrezen dat het verkeer vanuit Google, waarvan veel afhankelijk zijn, nog verder zal teruglopen. Google brengt daar tegenin dat AI-modus doorlinkt en dat mensen die doorklikken langer blijven op de site, maar dat maakt de terugloop in verkeer nauwelijks minder pijnlijk.

Daarnaast komt Google met de aloude truc van Silicon Valley om eerst een dienst advertentievrij en gratis aan te bieden en zodra veel mensen het gebruiken er advertenties in te zetten. Het is te verwachten en het bedrijf is er open over, maar het is een oud spelletje dat veel internetgebruikers inmiddels wel kennen.

De vraag over het energieverbruik is het belangrijkst, maar er is ook het minst concrete informatie over. Google laat weinig los over hoeveel druk dit legt op zijn energieverbruik. Veel gebruikers van Google gaan bewust om met energie en staan stil bij de gevolgen voor ons klimaat.

De komst van AI-modus is daarmee een relatief grote release die veel gevolgen kan hebben. Welke kant het precies op gaat, is nu nog niet duidelijk, maar de kans lijkt groot dat de gevolgen deels negatief zullen zijn. Daar hoef je mijn woord of dat van media niet op te geloven, ik heb het gevraagd aan Googles eigen AI-modus. Die zei dit: "De AI-modus van Google in Europa zal waarschijnlijk leiden tot minder klikken voor veel bedrijven, omdat de conversationele, multimodale interface gedetailleerde antwoorden biedt binnen Zoeken. Dit vergroot de existentiële dreiging voor contentuitgevers en vereist nieuwe SEO-strategieën gericht op diepgaande, semantisch rijke en visuele content om zichtbaar te blijven. Intensieve regelgeving onder de AVG en de AI-wet is zeker, met name wat betreft de manier waarop gepersonaliseerde, gevoelige gegevens worden verwerkt. Agentische functies, die taken in meerdere stappen kunnen uitvoeren, zouden de bedrijfsmodellen voor transactiegebaseerde platforms kunnen verstoren."

Google AI-modus over gevolgen release van Google AI-modus
Google AI-modus over gevolgen release van Google AI-modus

Reacties (90)

Sorteer op:

Weergave:

Ik vind de ai resultaten van Google vooral gewoon ook heel slecht... Eigenlijk lees ik ze alleen bij vrij simpele queries waarbij ik makkelijk kan verifiëren of het klopt, zoals een vraag hoe ik iets in de settings op mijn telefoon kan veranderen of zo. Dan is het nog vaak zo dat de setting waar ze me naar toe sturen helemaal niet bestaat bijvoorbeeld. Ik heb ook het idee dat hij erg hallucineert en vooral graag antwoord wil geven. Ik zie vrijwel nooit een negatief antwoord als ik iets vraag wat gewoon niet kan, dan verzint hij iets wat er op lijkt maar ik heb er niks aan. En dat dan nog los natuurlijk van dat als ze alle bronnen van informatie de nek omdraaien dat ze uiteindelijk nog veel minder informatie zullen hebben om uit te putten waardoor dit alleen maar erger zou worden.
Hier hetzelfde probleem, simpel spul lukt doorgaans wel maar zodra er een specifieke vraag wordt gesteld lijkt de AI wanhopig om EEN antwoord te geven en gebruikt elke bron die er maar een beetje op lijkt ongeacht of het klopt.

Voorbeeld voor mij was een how-to voor het vervangen van een laptopscherm van een specifiek model. De AI maakt een antwoord op basis van video's voor verschillende andere modellen, maar ik zie dus nergens een bron voor de laptop die ik in de zoekterm gebruik.

"Gebruik een heatgun om de lijm van de bezel los te maken en trek deze van het scherm af." Leuk, maar mijn laptop bleek een plastic bezel te hebben die losgeklikt moest worden.

Als het antwoord niet met zekerheid kan worden gegeven geef dan gewoon geen antwoord in plaats van te gokken
Die laptoptip werd je gebracht door het model dat mensen ook adviseerde om lijm op een pizza te doen, stenen te eten en chloorgas te maken.
Als het antwoord niet met zekerheid kan worden gegeven geef dan gewoon geen antwoord in plaats van te gokken.
In hoe je dit schrijft schijnt door dat je enige intelligentie toeschrijft aan het mechanisme wat de tekst genereert. Alsof "hij" of "zij" kan beslissen wel of geen antwoord te geven. Maar die intelligentie is er niet. Het is een veredelde T9 zoals ook op je Nokia zat, waarmee je sneller kon typen.

Het denkt niet. Het is een mechanisme voor het genereren van overtuigend klinkende zinnen. Of het inhoudelijk accuraat is, is volledig secundair daaraan, of zelfs eigenlijk toeval.
(...)Als het antwoord niet met zekerheid kan worden gegeven geef dan gewoon geen antwoord in plaats van te gokken

Dit is een van de fundamentele zwaktes van AI: liever volkomen zelfverzekerd een kul-antwoord formuleren dan toegeven dat het antwoord op jouw vraag niet gevonden kan worden.
En hoe hard je het ook probeert, die drang om liever onzin te vertellen dan eerlijk toe te geven dat er geen (duidelijk) antwoord is, is ingebakken door de AI-bouwers. Het is een niet te negeren keuze binnen het product.
En vervolgens noemen we dat (ook) halucineren... terwijl je gewoon moedwillig belazerd wordt.

* Jester-NL is over naar startpage, om van alle AI-meuk in een search-enige af te zijn.
Hallucineren is meer een kwestie van statistiek Why language models hallucinate en volgens de onderzoekers:
We then argue that hallucinations persist due to the way most evaluations are graded – language models are optimized to be good test-takers, and guessing when uncertain improves test performance.
AI modellen zijn bekend "confidently incorrect".

Het verbaasd mij dat dit überhaupt toegestaan is, want het is in mijn optiek een vorm van desinformatie de wereld in slingeren op een platform dat velen gebruiken om (belangrijke) feiten te zoeken.

Als ik nu dingen Google over de Nederlandse politiek (in verkiezingstijd) krijg ik feitelijke onjuistheden voorgeschoteld. Is toch niet normaal...
Dat niet alleen.

AI put een deel van zijn "kennis" uit bronnen op het internet. Inmiddels is een vrij groot deel van die bronnen "dirty", omdat die bronnen óók AI-gegenereerde content bevatten. Die zijn ook confidently incorrect, maar een en ander wordt voor waar aangenomen door de AI waar jij mee aan het werk bent.

Kurzgesagt heeft een experiment uitgevoerd hiermee. In research voor een video die ze aan het maken waren over dwergsterren, kwamen ze AI-gegenereerde onzin tegen. Complete papers en door AI-geschreven nieuwsberichten waar foutieve, AI-gegenereerde informatie in stond. Ze hebben die informatie laten checken door wetenschappers overigens, dus het is zeker dat die foutief is.

Enige tijd nadat ze dit constateerde, publiceerde een ander Youtube-kanaal óók een video over dwergsterren, waar dus wél die foutieve informatie in overgenomen was. En daarmee is er nu een geverifieerde bron op Youtube, want hun eigen AI noemt nu dát Youtube-filmpje als bron.

Link naar de video, op de timecode over dit experimentje:
YouTube: AI Slop Is Killing Our Channel

[Reactie gewijzigd door Heroic_Nonsense op 8 oktober 2025 11:54]

Kortom, de les is hier (zoals altijd): blijf altijd kritisch over gebruikte bronnen, en kijk vooral naar de inhoud. Dat geldt voor alles, ook het nieuws dat je dagelijks tot je neemt. Je mag er vanuit gaan dat professionals op de redacties van nieuws-media en wetenschappelijke publicaties hun werk goed doen, maar dan nog blijft het altijd zaak om zelf kritisch te denken.

In die zin is AI wel een goede reminder voor veel mensen.

NB als ik kritisch denken zeg dan bedoel ik niet complot-denken en andere wappie-onzin.
Kortom, de les is hier (zoals altijd): blijf altijd kritisch over gebruikte bronnen, en kijk vooral naar de inhoud. Dat geldt voor alles, ook het nieuws dat je dagelijks tot je neemt. Je mag er vanuit gaan dat professionals op de redacties van nieuws-media en wetenschappelijke publicaties hun werk goed doen, maar dan nog blijft het altijd zaak om zelf kritisch te denken.
Eens, al is dat in de huidige informatieomgeving een stuk moeilijker dan het klinkt. Kritisch denken veronderstelt dat er nog een controleerbare werkelijkheid bestaat, maar die aanname wordt door de huidige toepassing van AI slop uitgehold, zoals uitgelegd in het filmpje van Kurzgesagt welke aangehaald werd door @Heroic_Nonsense. Tevens, niet alles wat waar is, is logisch en niet alles wat logisch klinkt, is waar.
We are already living in a world where bad-faith actors—states, political parties, and any number of entities seeking to cause chaos—are able to confuse us in this epistemic crisis (epistemology being the study of knowledge and truth). We are no longer certain of what is real and true, whether it be an image or a post on social media, bots and trolls are generating “fake” or manipulated content at a rate faster than we can verify it. And that’s even if we have the desire to check.
De onderliggende kwestie is zowel epistemologisch als alethiologisch. Voor wie de begrippen niet kent, Epistemology onderzoekt hoe kennis wordt gevormd en gevalideerd terwijl Alethiology zich richt op de aard van waarheid zelf. Beide disciplines veronderstellen dat er nog een onderscheid bestaat tussen waarneming, interpretatie en werkelijkheid. Alethiologisch gezien verschuift generatieve AI waarheid van overeenstemming met de werkelijkheid naar overtuigingskracht van de output. Generatieve AI ondermijnt dat onderscheid door plausibele vervalsingen te produceren die niet meer als zodanig herkenbaar zijn of door tijd en herhaling onherkenbaar worden. Een treffend niet-AI voorbeeld is de mythe, helemaal uit 1922, dat alle bloedvaten in het menselijk lichaam, wanneer je ze achter elkaar legt, 100.000 kilometer lang zouden zijn. Na de tweede wereldoorlog en zeker sinds de komst van het internet is die mythe een eigen leven gaan leiden met bron op bron op bron. Dat beeld blijft hangen omdat het concreet, indrukwekkend en voorstelbaar is, ook al klopt het niet en destijds een uitzonderlijke aanname/schatting ("Krogh just winged it",zie 07:30: btw, de totale lengte van menselijke capillairen ligt volgens recente studies tussen 9.000 en 19.000 kilometer, aldus Kurzgesagt). Het laat zien hoe een onnauwkeurige schatting uit de wetenschap zich via herhaling en secundaire verwijzingen kan opstapelen tot schijnbare zekerheid, waarbij elke nieuwe bron de vorige versterkt zonder terug te keren naar de oorsprong. "standing on the shoulders of giants", alleen dan helaas het negatieve effect.

Vanuit daar is de sprong naar AI-slop eenvoudig gemaakt. Kurzgesagt, in de eerder aangehaalde video uit alinea 1, en zoals velen hier ongetwijfeld ook hebben ervaren, laat zien dat AI niet slechts onnauwkeurig is maar echt overtuigend fout. Dat maakt de leugen epistemisch corrosief omdat zij dezelfde vorm heeft als waarheid. De schade wordt mogelijk zichtbaar in de wetenschap waar AI-gegenereerde teksten, papers en samenvattingen in toenemende mate circuleren als bronmateriaal. Zodra modellen elkaar beginnen te citeren of corrigeren op basis van synthetische output verschraalt de koppeling met de werkelijkheid en vervangt interne consistentie de waarheid zelf, en neemt het risico op ‘model collapse’ aantoonbaar toe. Daarmee verschuift kennis van verantwoorde overtuiging naar waarschijnlijkheidsconstructie en verandert waarheid van een relatie tussen uitspraak en werkelijkheid in een zelfsluitend taalsysteem dat overtuigend klinkt maar leeg is. De epistemische verantwoordelijkheid is verschoven van mens naar machine, terwijl de mens de illusie van autonomie behoudt.

Waar de epistemische corrosie op het niveau van kennisstructuren plaatsvindt, wordt ze in de praktijk zichtbaar in de omgang met data. Zodra synthetische informatie wordt vermengd met echte gegevens, verdwijnt de scheidslijn tussen representatie en werkelijkheid niet alleen conceptueel maar ook technisch, hier een mooi eerder voorbeeld:
[...] Data verwijderen nadat het al gebruikt is om AI-modellen te trainen, heeft weinig nut. Zover ik weet, is het onmogelijk om zulke data volledig uit een model te verwijderen. Onderzoekers hebben zelfs al aangetoond dat specifieke trainingsdata uit modellen kan worden geëxtraheerd.

Daarnaast is het bekend dat verkeerde informatie in een model niet zomaar gecorrigeerd kan worden. Een concreet voorbeeld is de zaak van Samsung, waarbij medewerkers onbedoeld bedrijfsgeheimen lekten naar ChatGPT. Of een journalist die werd beschuldigd van zaken waarover hij zelf berichtte omdat ie erover berichten https://nos.nl/artikel/25...nalist-van-kindermisbruik (dat krijg je er niet meer uit).
Quote van: jdh009 in 'Microsoft: we gebruiken Office-data niet voor trainen AI-modellen - update'

Tot hier ging het over fouten zonder (bewuste) kwade opzet. Er is ook doelbewuste desinformatie door staatsactoren en georganiseerde netwerken. Die benutten dezelfde reputatie en herhaling. Het doel is geen ander perspectief maar operationele beïnvloeding. In zo’n omgeving werkt reputatie als sneltoets, niet als waarborg. Herhaling geeft schijnzekerheid, algoritmen geven schaal. Daardoor krijgt misleiding dezelfde vorm als betrouwbare kennis.

Een groot deel van deze post is hier ook op van toepassing:
jdh009 in 'Kabinet wil optreden tegen ‘desinformatie’, maar geen onafhankelijke autoriteit'

Ook traditionele media kunnen worden beïnvloed omdat zij zaken kunnen overgenomen van nepnieuwssite en/of via advertenties. Bovendien verspreidt nepnieuws zich vaak sneller en verder dan echt nieuws, wat de impact van deze desinformatiecampagnes nog groter maakt.
We found that falsehood diffuses significantly farther, faster, deeper, and more broadly than the truth, in all categories of information, and in many cases by an order of magnitude,” says Sinan Aral, a professor at the MIT Sloan School of Management and co-author of a new paper detailing the findings.
Daarbij komt ook steeds vaker het gebruik van deepfakes en gemanipuleerde video's, die steeds moeilijker te onderscheiden zijn van echt beeldmateriaal en vaker worden ingezet. Deze verschillende methoden worden vaak gecombineerd om een zo groot mogelijk effect te bereiken en zijn zeer effectief in het ondermijnen van vertrouwen in democratische processen en het verstoren van de sociale cohesie. Bots en staatsactoren zijn niet geïnteresseerd in een open debat, maar hebben als doel om maatschappelijke onrust te veroorzaken. Er is een groot verschil tussen een persoonlijke mening en georganiseerde desinformatiecampagnes. Het aanpakken van deze laatste vorm van desinformatie is GEEN censuur, maar een noodzakelijke maatregel om de samenleving te beschermen tegen opzettelijke manipulatie en destabilisatie. Bepaalde regelgeving moet juist zorgen voor de waarborging van eerlijke en vrije verkiezingen, en rechten rondom vrijheid van meningsuiting voor mensen (dus niet bots, nepaccounts en trollen), wat een fundamenteel onderdeel is van een gezonde democratie.

Hoewel je van burgers een bepaalde mate van mediawijsheid en fact-checking kunt verwachten, is het in mijn ogen totaal onrealistisch te denken dat zij zelfstandig tegen de massale en goed georganiseerde desinformatiecampagnes van (staats)actoren kunnen opboksen. Waarbij herhaalde blootstelling vertrouwen in instituties significant ondermijnt.

Zie ook: https://consensus.app/pap...c7ea5cdd8e46f4c924bc95e2/

Waar een van de uitkomsten kan zijn dat de algemene bevolking niet meer in staat is om het verschil te zien tussen waarheid en fictie. Hoewel informatie gemakkelijker beschikbaar is dan ooit, kunnen mensen niet zeggen of iets wat ze zien, lezen of horen betrouwbaar is of niet. De opkomst van AI slob en gerichte informatieoorlogsvoering zoals recent door Israël en Rusland, heeft dit nog verder bemoeilijkt door overtuigende vervalsingen te produceren die zich onmerkbaar mengen met echte informatie. Dus wanneer de volgende pandemie of oorlog uitbreekt, kan samenwerking in de hele samenleving onmogelijk gemaakt worden of op zijn minst zeer ernstig worden belemmerd.

https://onlysky.media/jpearce/how-russia-is-waging-war-on-me/
What does this all mean?
For those who are willing to put in the effort, a rich and balanced media diet is more accessible than ever before. However, being well-informed is often a privilege of time and resources that most people cannot easily afford.

So when it comes to tackling complex challenges like Covid-19 – challenges that required timely decision-making and the coordination of widespread collective action – it is important to remember that sensible public health advice and safe vaccines are not enough. People also have to believe in the solutions and those who proffer them.
Vertaald: Voor degenen die bereid zijn de moeite te nemen, is een rijk en evenwichtig mediadieet toegankelijker dan ooit tevoren. Maar goed geïnformeerd zijn is vaak een privilege van tijd en middelen dat de meeste mensen zich niet gemakkelijk kunnen veroorloven en door AI en SEO AI-websitemeuk steeds moeilijker wordt. 404 Media en andere outlets tonen AI-content die in Google News en zoekresultaten doorstroomt, ondanks anti-spamupdates van Google. Ik heb er een hard hoofd in dat dit in de Google AI-modus beter zal zijn geregeld. Vergelijkbare verschijnselen treden op bij andere platforms waar algoritmen engagement boven betrouwbaarheid rangschikken, en dan heb ik het nog niet eens over het algoritme zelf, waar ik op zichzelf al een even lange reactie over zou kunnen schrijven. Zonder structurele eisen aan transparantie van herkomst en auditbaarheid van trainingsdata blijft elke oproep tot kritisch denken uiteindelijk symbolisch.

Deze ontwikkeling vraagt om iets wat tot nu toe grotendeels ontbreekt en dat is inzet op epistemische veiligheid, net zoals we nu ook inzetten op digitale, ecologische en nationale veiligheid. In een tijd van groeiende polarisatie en wantrouwen binnen de samenleving is dat urgenter dan ooit. Epistemische veiligheid houdt in dat kennisintegriteit, bronherkomst en een minimale gedeelde realiteit moeten worden gewaarborgd zodat collectieve besluitvorming mogelijk blijft. In die context worden vertrouwen, betrouwbaarheid, menselijke controle en de rol van kennisinstituten belangrijker dan ooit. In een wereld vol synthetische informatie wordt echte betrouwbaarheid zeldzaam en dus kostbaar, want vertrouwen komt te voet en gaat te paard.

Voor wat achtergrond info: https://www.europarl.euro...RI%282024%29762416_EN.pdf (Hoewel de Europese Commissie inmiddels werkt aan kaders rond informatie-integriteit, ontbreekt nog een operationele invulling van ‘epistemische veiligheid’ als beleidsdoel.)

Al met al een veel te lange tekst om te zeggen dat deze stap van Google voor de mensheid geen stap is in de juiste richting... Gezien ik geen vertrouwen heb dat Google de techniek echt beheerst of het beste met ons voorheeft, vraag ik me af of deze ontwikkeling de al verstoorde informatie-ecologie waarin mensen opereren niet juist verder ondermijnt.

Eentje over Google uit de oude doos die ik nog tegenkwam tijdens het verwerken en zoeken naar informatie. Waarbij op het einde nog gezegd werd: "En wat die macht betreft: Google is niet de enige zoekmachine. Tik op Google maar eens het woord ‘zoekmachine’ in."
YouTube: Hoe werkt een zoekmachine? | Het Klokhuis van Vroeger uit 2007. Helaas is het in 2025 een stuk minder goed: https://tweakers.net/foto...DJuIAgZ695Q2LpcpJU2AR.png (Bing komt pas op plaats zes, en dat is met een adblocker ingeschakeld.)
We must be wary of Descartes’s Evil Demon as applied to AI. In philosophy, in the domain of epistemology, Descartes wondered what we could indubitably know. He surmised that we could only know that we exist (cogito ergo sum) because in order to doubt, we have to exist. It theorized that, for example, you don’t know that you’re not dreaming or being manipulated in your thoughts by an evil demon. You just don’t know what is actually” true” or “real.”

[Reactie gewijzigd door jdh009 op 8 oktober 2025 13:57]

Ik heb je hele betoog niet gelezen, maar ik zou per definitie user-created content zoals Youtube filmpjes van wie-dan-ook niet als een source-of-truth aannemen, sorry Kurzgesagt en Heroic_nonsense ;P
Ik heb je hele betoog niet gelezen, maar ik zou per definitie user-created content zoals Youtube filmpjes van wie-dan-ook niet als een source-of-truth aannemen, sorry Kurzgesagt en Heroic_nonsense ;P
Snap ik, wilde het kort houden maar dat is niet helemaal gelukt :+ (Excuus) (Edit: Ik had het door AI kunnen laten samenvatten, al is de kans groot dat de helft dan niet meer zou kloppen }:O )

Alleen de eerste paar regels zijn echt een reactie op jou inhoudelijk en de rest meer een voorbouwing daarop.

Wat betreft “user-created content zoals YouTube-filmpjes van wie-dan-ook niet als een source of truth” dat klopt, maar in dit geval scheelt het dat Kurzgesagt niet zomaar een kanaal is. Ze hebben, naar mijn weten, een reputatie opgebouwd voor gecontroleerde en openbaar verifieerbare research, die ze ook steeds publiceren en bij fouten zaken rectificeren.

Zijn ze onfeilbaar? Nee, zeker niet. Ze worden wel eens bekritiseerd. Vooral op het gebied van (over) simplificaties of door sommige groepen mogelijke vooringenomenheid, maar ze maken hun werkwijze transparant, trekken onjuiste video’s terug en publiceren bronverantwoording.

Dat is in ieder geval niet te vergelijken met het niveau van “het heeft op Facebook gestaan” want het platform bepaalt niet de betrouwbaarheid, de maker/bron en de onderbouwing wel. Dat betekent niet dat je alles voor waar moet aannemen, maar dat je het beoordeelt op transparantie, feitelijke correctheid, methodiek en herleidbare bronnen.

Hier die van de AI-slop https://sites.google.com/view/sources-aislop en hier die van de 100.000 km-aderen https://sites.google.com/view/sources-100k-blood-vessels/

[Reactie gewijzigd door jdh009 op 8 oktober 2025 14:20]

Ik vind Youtube echt niet anders dan FB, sorry.
Kunnen we dan niet AI beinvloeden door een aantal websites te maken, welke random artikelen maken die naar allerlei verschillende bronnen linken, taaltechnisch correct zijn, maar volslagen onzinnige informatie bevatten zoals: "Om het laptopscherm los te weken dien je de kanariegele ijsbeer te informeren over de aanstaande toiletborstelperikelen." ....
Als ik een hacker was met een boel resources, zou ik het volgende doen:
  • Zoek veel voorkomende problemen, bij voorkeur in de security sfeer. (password hashing, logging, caching, etc)
  • Genereer oplossingen waarin subtiele vulnerabilities zitten
  • Genereer 10000 pagina's, blog posts, forum berichten, etc, waarin ik deze code als oplossing aanprijs
  • Laat alle AI bots al mijn pagina's indexeren
En nu, als naive programmeurs een oplossing nodig hebben voor een dergelijk probleem, en het aan een AI bot vragen, dan krijgen ze mijn oplossing, of iets wat daarop lijkt. Doordat ik een boel volume geproduceerd heb, denken de bots dat dit wel goed moet zijn, want statistiek

En nu zitten er vulnerabilities in je code die ik kan exploiten.

En het feit dat ik dit nu kan bedenken, betekent dat iemand anders dit al lang aan het doen is.

[Reactie gewijzigd door Omegium op 8 oktober 2025 10:42]

Wellicht kan dit idee ook gebruikt worden om een onophoudelijke stroom met ruis te injecteren in de datastroom waar de AI modellen zich geheel gratis mee mogen verrijken. Een continue stroom met tekstuele updates vol met gegenereerde, niet gerelateerde woorden, die wel syntaxtisch een beetje correct moeten lijken opdat het niet eenvoudig kan worden weggefilterd maar verder volledig zonder inhoud. En dat crowd-sourcen. Eens kijken of de dreigende enshittification van het worldwide web door AI slop kan worden versneld.
Klinkt wel als een leuk idee, want dit AI-monster moet nodig beteugeld worden.
Ik merk het ook sinds AI in de google search resultaten is opgenomen. Ik ben sinds die tijd e alternatieven aan het uitzoeken/proberen, zou een mooi artikel zijn voor tweakers om de alternatieven eens te reviewen?

En in die zoektocht kwam ik erachter dat er een hoop alternatieven zijn - ook hele verrassende zoals bijvoorbeeld het SearXNG, wat je lokaal kan hosten, maar ook Ecosia en voor mij de tot nu toe meest gebruikersvriendelijke, Qwant - ook nog eens Europees!

En dan merk je ook de lock-in - het instellen van bepaalde, niet main stream, search engines op telefoons of browsers is soms onmogelijk of nodeloos ingewikkeld. Hier valt, in het kader van marktwerking, nog een hoop winst te behalen voor regelgeving.
Ik gebruik Ecosia en Startpage.com al een tijdje. Ruim meer dan een jaar. Maar zoeken en dan vinden is nog geen gegeven. Daarvoor ook een maand of 4 Bing geprobeerd. Helaas blijft de steeds minder wordende Google in sommige gevallen de enige waarmee ik ook kan vinden.

Neemt niet weg dat Ecosia 90-95% vande gevallen afdoende is en daarmee voor mij in ieder geval een alternatief.
Het is op z’n slechtst misinformatie. Desinformatie heeft opzet.
Stel dat de NOS gaat brullen dat:”Yeşilgöz de nieuwe lijsttrekker van GL/PvdA is en dat Timmermans de HRA wil verhogen”
, dan is dat gewoon des informatie, want een platform met zoveel bereik moet gewoon z’n bronnen checken. Je kan je dan niet achter mis-info verschuilen.

De wet zou simpel kunnen stellen dat er een zorgplicht is voor het geven van juiste informatie, ongeacht platform of grootte. Een artikel 5 voor nieuws en infosites.
Prima dat jij dat vindt, maar als je definities zoekt, dan is het verschil tussen misinformatie en desinformatie, intentie. (Het ter goede trouw of ter kwade trouw verspreiden.)

En ter volledigheid, propaganda is massacommunicatie die specifiek gericht is op het beïnvloeden van de publieke opinie of het gedrag van mensen. (En dit kan desinformatie zijn of niet. Je kunt ook ‘de waarheid’ overbenadrukken om dit te bewerkstelligen)

In jouw voorbeeld, is als er geen opzet is, op z’n slechts onbekwaamheid van de betreffende nieuwsdienst.
Het probleem (m.i.), is wellicht dat de meeste mensen niet de moeite nemen om zaken na te trekken, dit word nu nog moeilijker gemaakt, omdat steeds meer tools verkeerde informatie geven, o.a. doordat de bronnen waarop modellen zich baseren niet goed geverifieerd worden (meer is beter was voor veel AI het devies). Nu het een tool is geworden die massaal gebruikt word is het belangrijk dat we met zijn allen afspreken hoe we deze tools mogen inzetten.

Dezelfde tools kunnen prima herkennen dat een vraag (of zelfs het antwoord van de tool) over politiek gaat en gewoon dan zichzelf 'uitzetten'. Er is voor gekozen om dit te lanceren zonder deze functie. En daarom is kritiek op het inzetten/aanzetten van deze tools wat mij betreft zeker terecht.

Zeker als we het huidige politieke klimaat met de ongekende hoeveelheid desinformatie meenemen (desinformatie is denk ik een nog groter probleem dan misinformatie), die je tegenkomt (veelal op social media). Dan wil je gewoon dat een 'vertrouwde' bron als google, laten we wel wezen, het is een werkwoord geworden zelfs, rekening houd met dit probleem. Ben het wel met je eens dat nieuwsdiensten ook beter hun werk moeten doen soms, maar laten we de bal nu niet bij hen neerleggen als het over dit onderwerp gaat, dit is immers een nieuwe situatie.
over politiek gaat en gewoon dan zichzelf 'uitzetten'.
Dat zou de goedkoopste oplossing zijn. De 'beste oplossing' zou zijn om dan alleen betrouwbare bronnen te gebruiken voor die vragen. (Geen social media in de breedste zin (dus geen Facebook/Tiktok/Tweakers-discussies/nujij.nl-discussies/enz.) Wat dan neutrale betrouwbare bronnen zouden zijn is misschien lastig te sturen.

Dit is dan 'juist' waar LLMs iets kunnen toevoegen.

Het risico is natuurlijk, dat er dan weer mensen boos worden dat de LLMs 'biased' zijn omdat hun mening (die al dan niet door mis/desinformatie is gevoed) niet bevestigd wordt en daarmee de LLM als onbetrouwbaar wordt bestempeld en dan krijgen we daar weer gedoe over. :) (want echt zelf onderzoek doen, is natuurlijk naar boze Youtube filmpjes kijken volgens sommigen ;) )

In de breedste zin is dit denk ik waar LLMs het meest kunnen toevoegen. Door 'slim' betrouwbare bronnen te selecteren voor specifieke onderwerpen. Als je iets over 'ontstaan van mensen' zoekt, dan kun je dat op twee manieren benaderen. Creationisme of Evolutie-theorie. In eerste instantie zal de LLM dan beiden moeten benoemen, en als je dan doorvraagt op basis van Creationisme, dan kun je vanaf daar verder, en zal de LLM de evolutietheorie ook wel moeten blijven benoemen, net zoals andersom, tenzij je expliciet benoemt dat je het alleen vanuit één perspectief wil belichten.
Zodra je besluit dat je toch bronnen gaat goedkeuren, om de functie toch maar te kunnen gebruiken, krijg je te maken met 'smaak'. Wat is de juiste mix van informatie in de trainings fase, bij pretraining, is de waarheid die je traint wel een waarheid, hoe verwoord je het antwoord zonder duidelijke voorkeur (bijna onmogelijk misschien) etc..

We kunnen wat mij betreft best een tijdje wachten tot de geopolitieke situatie zich heeft verbeterd en dan jouw oplossing alsnog toestaan ;)
Als we kijken naar een mechanisme als waar dit artikel over gaat. (LLMs die het internet op gaan om daar conclusies te trekken. Dus niet alleen maar 'voorgeleerde info'.) Dan kun je voor bepaalde onderwerpen, bepaalde bronnen uitsluiten. Dus bijvoorbeeld: Reacties onder tweakers.net, nujij.nl, Facebook, TikTok, X, enz. kun je denk ik redelijk veilig uitsluiten als 'betrouwbare bronnen' voor politieke onderwerpen. Dan zijn artikelen van Tweakers, nieuwswebsites, overheidssites, partij-sites, enz. veel betrouwbaarder en kunnen ze die zwaarder laten wegen.
Als je wil zoeken naar publieke opinies van die onderwerpen, dan zijn zaken als Facebook/Tweakers fora, enz. Juist weer meer van belang. Dan wil je juist weer niet dat de NOS/partijsites daar zwaar wegen. (want die zijn of 'te neutraal' of 'bevooroordeeld voor zichzelf')

(( M'n concrete voorbeelden zijn allicht arbitrair, en men moet ook goed opletten dat er geen 'vooroordelen' ontstaan, maar even voor het concept. ))

N.B. Ik heb het dus specifiek over blacklisten van overduidelijk onbetrouwbare bronnen bij bepaalde onderwerpen/thema's.

Zie het een beetje (hele liberale vergelijking) met dat bepaalde pagina's op Wikipedia alleen door ingelogde mensen of soms zelfs alleen bepaalde mensen (bewezen vak-experts) aangepast mogen worden. Is dit wenselijk? Of ondermijnd dit het hele concept van een openbare encyclopedie? En wie bepalen dan wie de experts zijn?
Wikipedia: God (algemeen)<-- Niet publiekelijk aanpasbaar
Wikipedia: My Little Pony<-- Wel publiekelijk aanpasbaar
Dat is nu juist een van de problemen, zodra je gaat blacklisten (dat is overigens moeilijker dan whitelisten als je doel is desinformatie te voorkomen), moet je keuzes maken en telkens bepalen wat acceptabel is en wat niet. Waarom niet gewoon herkennen dat het een vraag en/of antwoord betreft waar er problemen kunnen ontstaan en deze functie gewoon een paar jaar uitstellen tot de geopolitieke storm is gaan liggen.

Goed punt met betrekking tot wikipedia, daar speelt hetzelfde probleem, alle informatie die je direct/indirect filtert is problematisch in beginsel. Maar, het belangrijkste aspect is het indirecte bereik via bijv. latente kennis in een LLM.

Daarom mijn pleidooi om de functie uit te zetten bij politieke onderwerpen voor een paar jaar. Dan kunnen we daarna wellicht zelfs met minimale vangnetten werken (overigens is er helaas altijd wel een vorm van moderatie noodzakelijk, zie de research op het gebied van usenet, en dan heb ik het dus niet over binaries enzo natuurlijk).
Je zegt dat de wet dat simpel zou kunnen stellen echter het is totaal niet simpel. Een door de overheid aangewezen instelling of de rechtbank moet dan gaan oordelen of wat informatie is en was des-informatie is.

Vroeger hadden we iets dergelijks, de kerkelijke rechtbank. De aarde was plat. Een ieder die anders beweerde kon vervolgt worden, immers iedereen wist toch wel dat de aarde plat was en niet rond?

Nu hebben we wel consensus dat de aarde niet plat is. Maar bij andere onderwerpen wordt het al lastiger. corona vaccinaties zijn veilig. Dan heb je al een groepje die het daar absoluut niet meer eens is.
Of wat dacht je van Israel pleegt geen genocide in Gaza. Dan heb je de poppen aan het dansen. Een grote boze groep tegenover een kleine groep die het daar wel mee eens is.

Uiteindelijk krijg je dan dat nieuwssites en info-sites zich gaan conformeren aan de mening van de overheid.
Dat lijkt misschien lastiger, maar dat is het niet. Het 'lawaai' komt vooral van mensen waarbij omgekeerd evenredig verband is tussen 'lawaai' en 'kennis'. Je haalt vaccinaties aan; ik ben in het wild en op het internet nog nooit iemand tegengekomen in de groep die héél hard schreeuwde dat het allemaal onveilig is, die mij kon vertellen wat het fast track-protocol van FDA nou eigenlijk betekent. Hoe men vervolgens te werk gaat om zo snel en zo veilig mogelijk te voorzien in de behoefte, waar accuut noodzaak voor is. Dat is namelijk stap één van alamfase één medicatieontwikkeling. Als je dát al niet begrijpt of een beetje in context kunt plaatsen van reguliere medicijnontwikkeling heb je gewoon he-le-maal niets van toegevoegde waarde en is je mening volstrekt onbelangrijk. En dan is er ook nog het volstrekt misbruiken van LAREB als "bron van waarheid".

Je hebt het over "genocide" -- je kunt je -net als de VVD en andere partijen- verstoppen achter "een rechter moet dat maar beoordelen hoor" maar 1) men is daar niet consequent in (bijvoorbeeld de VVD t.a.v. ISIS twee jaar geleden) en 2) het getuigt vooral van morele leegte en intellectuele luiheid als de consensus binnen experts is dat Israël genocide pleegt.

Dus het is allemaal flink simpeler dan jij denkt. Het is vooral het omgekeerd evenredige verband waardoor sommigen volstrekt ten onrechte denken hier naar te moeten luisteren, of ze serieus nemen. Er gesprekken mee aan blijven gaan, terwijl men stiekem al lang en breed niet (meer) van gedachten gaat veranderen. En met de overheid heeft het al helemaal niets (meer) te maken.
Als het niets met de overheid te maken heeft, wie oordeelt er dan of een publicatie des-informatie is?
Ik kan hier geen antwoord op geven. Wat bedoel je met "publicatie"? En bedoel je echt desinformatie (met andere woorden: je begrijpt het verschil tussen desinformatie en misinformatie)?
De wet zou simpel kunnen stellen dat er een zorgplicht is voor het geven van juiste informatie, ongeacht platform of grootte.
Wie oordeelt of informatie juist is of niet?

Informatie die vrijgegeven wordt aan het publiek in een publicatie.

Desinformatie is het bewust misinformeren.
Welke informatie en in welke hoedanigheid? Er zit nogal wat verschil tussen bijvoorbeeld de publicaties binnen het fast track-traject rond een vaccin of een topambtenaar die een onderzoeksrapport met advies krijgt. Dus: wees specifieker. Wie is de publicerende partij en in welke context. Er is niet een cookiecutter antwoord te formuleren op de vraag wie beoordeelt of iets juist is of niet zonder deze voorwaarden.
Het is de stelling waarop ik reageerde, waarna jij op mij reageerde.
De wet zou simpel kunnen stellen dat er een zorgplicht is voor het geven van juiste informatie, ongeacht platform of grootte.
Als er een zorgplicht is, dan moet ook door iets of iemand vastgesteld worden of er aan die zorgplicht voldaan is. Wie is dat dan? Wie bepaalt of informatie juist is?
Dit zijn inderdaad grote problemen. En als het niet 2025 was nu, dan was ik het met je eens geweest, zeker rond 2000, maar nu hebben we die luxe niet. De maatschappij is aan het leren (hopelijk) hoe we moeten om gaan met AI en desinformatie. Dat is allemaal niet op orde nu, dat zie jij waarschijnlijk ook. De gevolgen van het toestaan uit principe, is misschien erger dan dat we toestaan dat het nu word aangepakt.

Het kan misschien geen kwaad om de partijen die te maken hebben met social media en AI zoekresultaten te verplichten iets te doen aan desinformatie en misinformatie. Laat ze maar filteren op 'gevoelige' onderwerpen zoals politiek. Dan hoeven we niet meteen draconisch op te treden door bepaalde informatie verstrekking qua inhoud te gebieden of te verbieden.
Ik ben bang dat een deel van de mensen nu al niet de capaciteit of kennis heeft om met alle informatie die beschikbaar is om te gaan. Met AI gaat dit niet beter worden.

Vroeger lieten deze mensen zich door de kerk voorkauwen wat ze moesten vinden. Tegenwoordig zijn het sommige politici en figuren op internet. Helaas zijn de ideeën niet per se veranderd tov wat de kerk vroeger vond.
De aarde was plat. Een ieder die anders beweerde kon vervolgt worden, immers iedereen wist toch wel dat de aarde plat was en niet rond?
Daadwerkelijk desinformatie van nu over toen, het probleem was meer geocentrisme (aarde is het middelpunt) vs heliocentrisme (de zon is het middelpunt). Daarnaast was het niet alleen de kerk die het er niet mee eens was maar moesten Capernicus (een katholieke priester die dacht dat heliocentrisme correct was) zijn ideeen verder uitgewerkt worden. Dus ook niet alle "wetenschappers" waren het er mee eens. Alsook dat eerder andere mensen in andere tijden en religies hetzelfde hadden voorgesteld.

--

Update: Oh, mogelijk bedoel je ten tijde van Columbus, ook daar ging het niet over het plat zijn van de aarde maar evt de grootte daarvan. Of je wel genoeg voorraad mee kon nemen om via "de westelijke route" naar Azie te varen.

[Reactie gewijzigd door ZpAz op 8 oktober 2025 10:49]

Stel dat de NOS gaat brullen dat:”Yeşilgöz de nieuwe lijsttrekker van GL/PvdA is
Zou voor beiden partijen een goed idee zijn
Yeşilgöz is volgens mij een oud-SPer. Dus ik denk dat ze het rolletje prima kan spelen.

Ik denk alleen dat het geen goed idee is voor de Nederlandse maatschappij. PvdA/GroenLinks gaat dan beschadigd worden en dan gaan we nog meer de conservatieve kant op in de kamer.

Dat lijkt me een heel slechte idee aangezien we al te weinig progressieve stemmen hebben in de Nederlandse politiek.

(Voor het geval dat je het niet door hebt, ik denk dat we gebaat zijn bij politieke tegenstelling, maar dat het eenheidsworst lijkt te worden wat het echt probleem is, en waar AI ook een flinke rol in heeft)
Het is dan ook niet veel werk om een feedback loop te maken die precies dat bewerkstelligt.
Je ziet het al met de massale enshittification van diensten als Spotify, dus het is een peulenschil om dat met andere onderwerpen ook te kunnen gaan doen.
Toch altijd bijzonder dat ik de ene dag een opmerking voorbij zie komen op reddit, en de volgende dag deze bijna exact gelijk tegenkom hier (of ergens anders), maar dan in het nederlands.
Wat probeer je te zeggen met dit zinnetje. Maar ik begrijp niet wat het toevoegt aan de discussie.

Daarnaast zie ik niet waar "desinformatie" genoemd wordt, maar dat zou door een wijziging kunnen komen.

Vandaar de welgemeende vraag om verduidelijking.
AI is en wordt vooral extreem ge-upselled.

Het zou allemaal geweldig en de toekomst zijn. "Inmiddels PhD waardig".

Er zijn genoeg reviews en videos online waar bv daadwerkelijke PhDers dit dan ook aan de tand voelen. Keer op keer gaat het keihard op zijn bek.

Als ik zelf dingen test uit mijn eigen vakgebied en achtergrond, klopt er technisch en wetenschappelijk geen ene bal van.

Tegelijkertijd praat het met ongelooflijke overtuiging. Waarbij de onwetende dit voor zoete koek neemt. Menig online voorbeeld (met name voor de jeugd) neemt het allemaal klakkeloos over.

Tegelijkertijd verzint ai er vrolijk op los.

Het is inmiddels zover gekomen dat je met de andere helft, de wannabe armchair engineers geen inhoudelijke discussie meer kunt voeren; want Ai (met name chatgpt) lijkt het beter te weten.

Dan hebben we het nog niet eens over alle extreem dubieuze copyright kwesties, iets waar dit artikeltje terecht over gaat.

Af en toe inspiratie krijgen is namelijk wel totaal iets anders dan massaal een complete catalogus gebruiken. (Lees: misbruiken). Voor puur commerciële doeleinden.

Het internet is samen met mij opgegroeid. Ik kan mij nog goed de eerste jaren herinneren. Inmiddels voel ik me bij wijze van, soms gewoon vies wat het nu is met deze pulp en fluff. Het is een grote puinzooi.

Vanaf dag 1 hadden er stricte regels en wetten aanwezig moeten zijn geweest om ze mensen te beschermen tegen alle misinformatie en andere serieuze problemen dat door deze dingen wordt uitgespuwd. Dit kan alleen maar fout gaan.

Het enige waar het wel goed in is, zijn taalgeleerde dingen, brainstorm sessies, first drafts en dat soort dingen. Alsnog moet je dan veel corrigeren.

[Reactie gewijzigd door B_FORCE op 8 oktober 2025 08:45]

Dit lijkt overigens te gebeuren met elk nieuw (massa)medium. Er is een interessante podcast "Geschiedenis inside" waarin bv een aflevering zit waarin uitgelegd wordt hoe Willem van Oranje tijdens de 80jarige oorlog de nieuwe drukpers gebruikte om allerlei propaganda-leugens te verspreiden. Uiteindelijk blijft het aan ons, de mens, om kritisch te blijven denken. Al kan ik me wel voorstellen dat er een nieuwe vorm van AI-agents komt die extreem kritisch content kunnen analyseren en cross-checken, en naar de track-record van gebruikte bronnen kijken, en hier vervolgens een soort van score aan geven.

Maar uiteindelijk is de AI zelf (zoals deze nu zijn gebouwd met de foundational LLM models met vector-db's eronder) een routerings-algoritme die de meest voorkomende woordjes en zinnetjes achter elkaar plakt, met geen enkel inzicht of kennis van onze wereld en de onderliggende principes. En dat moeten we ons blijven realiseren.
Het internet is samen met mij opgegroeid. Ik kan mij nog goed de eerste jaren herinneren. Inmiddels voel ik me bij wijze van, soms gewoon vies wat het nu is met deze pulp en fluff. Het is een grote puinzooi.
Erg jammer. Vroeger was het internet door mensen voor mensen.
De grote bedrijven hebben dat langzaam de nek omgedraaid, alles moet als doel hebben je zo lang en zoveel mogelijk advertenties te laten zien ipv informatie verstrekken. Ook een hoop informatie die vroeger op publieke fora kwam ineens onder minder toegankelijke Facebook groepen, private reddits en Discord kanalen.

En imo nu als doodsteek AI gegenereerde content. Als een webpagina is aangepast of gemaakt na 2020 kan je er niet van op aan dat de informatie correct is zelfs als die zeer professioneel lijkt. En dat gaat alleen maar erger worden nu AI modellen op AI gegenereerde content worden getraind.

Zou me niet verbazen dat je voor echte informatie op een gegeven moment weer oude boeken bij de bibliotheek gaat lezen.
Gelukkig zijn er ad blokkers, want zonder is het internet niet te genieten. Sommige websites hebben banners waar je spontaan de hik van krijgt.
Vorige week nieuwe computer geïnstalleerd.

Ik was even vergeten hoe het internet eruit ziet zonder adblockers.
Het is een groot pop-up fest, met ergens daar achter nog iets van een website.

We moeten vooral naar onszelf wijzen, want iedereen doet er even hard aan mee.
We geven allemaal het verkeerde voorbeeld aan elkaar.

Ik denk dat de overheid hier ook zijn voorbeeld rol al jaren niet serieus neemt.

Een beter milieu begint bij jezelf.

Voor echte literatuur duik ik inderdaad nog steeds in de boeken en/of papers.
Typisch dat zodra je dat noemt of als argumentatie gebruikt, mensen boos worden.
Spreekt boekdelen (lol) wanneer mensen te lui zijn ergens moeite voor te doen.
Dat is in sommige gevallen inclusief professionals helaas.
Ik ben ook nog niet onder de indruk van generatieve AI, maar toch zei Terence Tao (een van de beste wiskundigen van het moment) dat hij ChatGpt 5 had gebruikt om een antwoord op een MathOverflow vraag te geven: https://chatgpt.com/share/68ded9b1-37dc-800e-b04c-97095c70eb29 en https://mathoverflow.net/a/501125

Dus helemaal waardeloos is het niet in de handen van iemand met heel veel kennis. Dus misschien is het echte probleem dat mensen heel erg slechte vragen stellen.
Het echte probleem is dat mensen de nuance niet kennen.

In de soort gevallen zoals dit voorbeeld, is de gebruiker ertoe in staat om in te schatten of het antwoord onzin is.
Als expert is het namelijk vrij snel duidelijk of er troep uit komt.
Wanneer die kennis niet aanwezig is, nemen mensen het maar gewoon aan.

Het inschatten van nuances is trouwens ook gelijk het probleem waar ai ongelooflijk slecht in is tov daadwerkelijke experts.
Dunning-Kruger is hier volop aan het werk. Alleen als je de materie goed beheerst zul je kaf van koren kunnen scheiden. De overige gebruikers zitten onder de middelmaat en zullen de antwoorden niet van pure magie kunnen onderscheiden.
Ik zocht laatst naar een term die ik op een document op mijn werk tegenkwam en maar niet kon plaatsen. Google AI gaf me een keurig onderbouwde uitleg. Echt top. Bijna had ik de uitleg gebruikt in een vrij belangrijk stuk communicatie, tot het me opviel dat geen enkele site het begrip gebruikte.

Wat bleek: door een domme opmaak waren twee woorden naast elkaar gekomen die helemaal geen eenheid vormden. Wat dat betreft was het niet gek dat ik het begrip niet herkende, maar Google AI had dus een hele uitleg bedacht. Ik was al geen fan, maar sindsdien dwing ik mijzelf nog veel harder om er voorbij te scrollen.
Voor mij was het niet uit kunnen schakelen daarvan reden om over te stappen naar DuckDuckGo.
Je kunt die AI-overzichten ook uitzetten door Google in een browser te openen met: https://www.google.com/search?q=%s&udm=14 of door -noai achter je zoekterm te plakken.

Verder is dit wel een leuk voorbeeld van de onzin die AI-overzichten spuien: https://www.casanegra.nl/maar-gaat-u-verder/
Het grappige is, is dat Bing dit echt al een hele tijd heeft en nu Google er eindelijk mee komt, is er wat ophef? 😄

Persoonlijk gebruik ik Kagi, die ook een LLM beschikbaar heeft. (Die activeert standaard als je een vraagteken achter je vraag zet). Dit is tegenwoordig mijn standaard manier van zoeken.
edit:
Autocorrupt

[Reactie gewijzigd door lenwar op 8 oktober 2025 10:01]

Omdat niemand Bing gebruik? Als ik nog niet wakker ben en ik in Edge op mijn werk een vraag in de urlbalk type krijg ik Bing resultaten en die gebruikt Co-Pilot.

Door de veels te drukke resultaat pagina krijg ik door wat er gebeurd is en klik snel door naar Chrome. Zelfs met Co-Pilot zijn de resultaten altijd nét niet wat je zoekt.
In Nederland allicht niet, maar volgens mij in de VS best wel? Ik heb ook niet specifiek over een artikel op Tweakers natuurlijk, maar op een één of andere manier bereikt dit de brede media alsof het iets heel nieuws/unieks is, maar Bing heeft het al heel lang, en dat wordt (in elk geval in dit artikel) niet eens benoemd, wat wel een beetje gek is toch?
Dit is een zeer actueel onderwerp. Afgelopen donderdag is er een podcast van BNR genaamd 'De Technoloog' uitgezonden waarin dit besproken werd en ook een dienst die een oplossing aanbiedt waarbij bronvermelding gegarandeerd wordt en dus ook content makers gecompenseerd.

Er zijn ook andere alternatieven zoals Cloudflare die experimenteert met “pay per crawl”, een systeem waarin AI-bedrijven betalen voor het indexeren van content ipv alles gratis scrapen.
Worden de content makers gecompenseerd aan de hand van het resultaat of middels een klik naar de bron?

Ik vraag mij namelijk af hoeveel personen het resultaat leest en als ze daar het antwoord in vinden dan niet meer naar verder klikken naar de bron.
Net als mijn bovenstande vraag, terwijl ik ook zelf de podcast had kunnen luisteren, gemakszucht. ( al ga ik zo wel die podcast opzoeken, bedankt voor de tip (y)
Ik zag gisteren toevallig nog zo'n voorbeeld bij mijn dochter. Ze wilde weten of er een nieuw seizoen van Chicago Med kwam. Het Ai overzicht gaf antwoord en verder klikken deed ze niet. Dit was al voldoende.
Ik zie het ook bij collega's die conformiteit aan wet- of regelgeving "even" willen checken: even Googlen en "Ja, het mag". Echt bizar!
Gisteren hadden we het over gemeenten in Vlaanderen, gelegen aan een monding van rivier, en die genoemd zijn naar die monding. We konden op 2 gemeenten komen (Dendermonde en Rupelmonde), maar waren er nog meer? Ik tikte die vraag dus in Google search, en kreeg het AI antwoord dat er zo geen gemeenten zijn in België. Copilot vond er 1, met als uitleg dat de andere sinds de gemeentefusies niet meer bestond.

Mijn mening is dan ook dat je toch iets van het onderwerp moet weten, voor je een vraag stelt aan AI.
Mijn mening is dan ook dat je toch iets van het onderwerp moet weten, voor je een vraag stelt aan AI.
Het is net nieuwsmedia:
Everything you read in the newspapers is absolutely true except for the rare story of which you happen to have firsthand knowledge.
Het is inderdaad lastig om te weten of je voor de gek gehouden wordt door het taalmodel als je eigenlijk niks van het onderwerp weet waarover je een vraag stelt.

Als ik dezelfde vraag had gesteld over de gemeenten aan de monding van een rivier, genoemd naar de monding, dan had ik vrij makkelijk kunnen aannemen dat het antwoord klopte, omdat ik geen idee heb.

[Reactie gewijzigd door vickypollard op 8 oktober 2025 08:21]

Recentelijk ben ik overgestapt naar Kagi voor het zoeken op internet en dat bevalt me erg goed. Veel minder irritante AI/verzamel/keyword sites dan bij Google. Het is niet gratis, maar mede door de extra privacy vind ik dat geen probleem! Einde reclame, haha.
Ik ga ook maar weer eens kijken naar Kagi, voordat ook die ten onder gaat aan verkuttificatie.
Bij google moet je tegenwoordig eerst 2 - 3 schermen naar beneden scrollen voor het eerste antwoord. Bij AI vragen moet je wachten totdat het antwoord geformuleerd is. En dan nog mag je hopen dat google je zoektermen niet zelf heeft aangepast, waardoor je niet op het juiste onderwerp zoekt. Google is voor mij erg inefficient, en kost mij meer tijd om t juiste antwoord te vinden.

Redelijk tevreden met duckduckgo. AI kan je aangeven dat je dat niet wil, en AI resultaten staan nu onder de eerste 20 zoekresultaten. Ook kun je tegenwoordig wat makkelijker sites wegfilteren waar je geen goede resultaten van krijgt, en aangeven of paginas wel of niet relevant zijn voor je zoektermen, en AI gegenereerde paginas melden.
En door zoek parameters op te geven in je browser instellingen ben je in een keer klaar.
Ik gebruik al tijden, naar volle tevredenheid deze zoekterm-url:
"https://noai.duckduckgo.com/?q=%s -msn"

Nooit ai resultaten en geen nieuws links bovenin

[Reactie gewijzigd door Ruuuuuubje op 8 oktober 2025 10:16]

Bij duckduckgo kan je gewoon in instellingen de AI samenvattingen (en andere zaken) uitschakelen. Werkt uitstekend :)
Die informatie komt van sites voor koffieliefhebbers, die de inkomsten grotendeels danken aan advertenties.
Voor de websites is dit inderdaad een issue, dat zie ik gelijk. Maar laten we wel wezen: Dat is alleen relevant voor mensen zonder ad blockers. Een ieder die toch een ad blocker heeft draaien is wat dat betreft niks beter dan een gebruiker die niet voorbij de Google AI antwoorden komt.

Soms vind ik ze best handig. En ik klik best vaak op de bronnen, maar het zou mij niet verbazen inderdaad als een hoop dat niet doen. Het probleem blijft het op waarde te moeten inschatten, en soms is dat belangrijk, andere keren niet. Maar eg gisteren wilde ik weten welke van meerdere wiskundige functies ik het beste ergens voor kon gebruiken. Google AI verteld dat één je beter niet kan gebruiken omdat hij ergens slechter in presteert. Klik op de bron, en het is een enkel persoon op StackExchange die dat stelt. Klopt het? Misschien wel, misschien niet. Maar dat weet je niet uit het AI overzicht.
Veel gebruikers van Google gaan bewust om met energie en staan stil bij de gevolgen voor ons klimaat.
In absolute aantallen vast. Relatief gezien? Als de AI echt betere resultaten geeft op wat je wil weten, hoeveel mensen zouden het echt uitzetten (danwel een andere zoekmachine gebruiken) om het beetje energie wat je zoekacties gebruiken te beperken?
Google maakte zoekresultaten al bewust slechter zodat je meer tijd het advertenties doorbrengt*, ze hebben voor mij lang geleden al afgedaan. Ze willen helemaal geen goed zoekproduct, dat levert te weinig op. Ik denk dan ook niet dat het ze echt interesseert hoe goed de AI het daadwerkelijk doet. Hoe meer fouten het maakt, hoe langer mensen op de advertentie pagina blijven. Overstappen naar een ander product doet men blijkbaar niet, dat hebben ze bij Google wel uitgevonden.

*Bron bijvoorbeeld: https://www.vrt.be/vrtnws...ctie-advertenties-search/
Ik zou heel graag willen dat bij elk AI overzicht, en dus ook bij deze nieuwe AI modus, een duidelijke disclaimer komt te staan dat de inhoud mogelijk onjuiste informatie bevat.

Ik zie nu al vaak om me heen dat mensen de AI overzichten te makkelijk vertrouwen. Ik vind dat we dat met z'n allen niet zouden moeten accepteren.


Om te kunnen reageren moet je ingelogd zijn