Wikipedia ziet flinke afname in webverkeer van mensen, wijst AI aan als oorzaak

Online-encyclopedie Wikipedia meldt dat webverkeer van menselijke gebruikers afneemt en bestempelt de opkomst van AI als oorzaak hiervoor. Steeds meer bezoek aan Wikipedia bestaat uit bots die data verzamelen voor AI-chatbots, AI-overzichten en andere AI-gegenereerde output.

Wikipedia zag in de eerste zes maanden van dit jaar een daling van 8 procent in het verkeer van menselijke gebruikers. Dat is in vergelijking met het jaar ervoor en na bijstelling van de algoritmes voor het analyseren van bezoek, schrijft Ghacks.net. Wikipedia zag in mei dit jaar namelijk opvallend grote aantallen bezoekers vanuit Brazilië komen, die aanvankelijk menselijke bezoekers leken maar toch bots bleken te zijn. Verkeer van bots bleek goed verhuld te zijn, om als menselijk bezoek over te komen.

De Wikimedia-stichting, de organisatie achter Wikipedia, meent dat de daling in bezoek te wijten is aan AI. Bots en scrapers worden niet meer alleen ingezet voor bijvoorbeeld het aanmaken van indexen voor zoekmachines, maar ook voor het vergaren van data om AI-modellen te trainen. AI-aanbieders, maar ook de marktdominante zoekmachine Google, gebruiken zulke input om met AI-chatbots antwoorden te genereren.

Wikimedia stelt in een blogpost dat er bij zulke informatievergaring voor AI niet altijd wordt teruggelinkt naar de bron. Dat kan websites veel verkeer van menselijke bezoekers schelen. Wikipedia is niet de enige partij die daar last van heeft, aldus de blogpost 'New User Trends on Wikipedia'. "Veel andere uitgeverijen en contentplatformen melden soortgelijke verschuivingen doordat gebruikers meer tijd doorbrengen op zoekmachines, AI-chatbots en sociale media om informatie te vinden." Tegelijkertijd ondervinden contentorganisaties zoals Wikipedia wel de belasting van dataverzamelende bots op hun IT-infrastructuur.

Door Jasper Bakker

Nieuwsredacteur

20-10-2025 • 18:06

147

Submitter: TheVivaldi

Reacties (147)

147
144
76
11
0
48

Sorteer op:

Weergave:

Ik vrees dat de manier hoe we het internet gaan gebruiken zal evolueren, maar niet ten goede van transparantie. Ik vind dat AI bijv. nog steeds onvoldoende laat zien welke bronnen ze gebruiken. Iets wat met een Wikipedia wel een stukje beter is geborgd (uiteraard niet vlekkeloos).
Het is met de huidige modellen onmogelijk om betrouwbaar terug te linken. Een model weet niet waar het haalt wat het schrijft. Het kan wel proberen op basis van wat het geschreven heeft te zoeken in brondata (het internet of een repository met trainingsdata). Maar dat is natuurlijk niet echt betrouwbaar.
Copilot doet het anders perfect. Meld netjes alles wat en waar
Copilot geeft mij anders vaak genoeg links die niet over het onderwerp gaan (of enkel losjes, maar noemt niet hetgeen waar de bron voor is aangehaald), of regelrecht 404's zijn. Controleer je die bronnen dan ook altijd?

Bij mij zit er bij elk lijstje aan bronnen altijd wel minstens 1 fout in, zonder uitzondering.

Deze AI's zoeken een bron bij hetgeen wat ze zeggen. Dat is dus andersom, eerst verzinnen, dan kijken of er een bron bestaat die het bevestigd, vandaar dat daar zo vaak een disconnect in zit.
Deze AI's zoeken een bron bij hetgeen wat ze zeggen. Dat is dus andersom, eerst verzinnen, dan kijken of er een bron bestaat die het bevestigd, vandaar dat daar zo vaak een disconnect in zit.
Geen idee of dit zo werkt, maar wat ik wel opvallend vind is dat Google altijd een Nederlandstalige bron vind, terwijl er toch veel meer informatie in andere talen beschikbaar moet zijn. Op zich fijn natuurlijk, bij een Spaanse bron haak ik al snel af, maar het lijkt die theorie wel te ondersteunen.
Het werkt absoluut zo. Veel (praktische alle) van de tekst wordt regelrecht aan elkaar gehallucineerd. Hallucinatie is een beetje kromme term in deze context, want dat is wat de bots by default doen, dat is hoe ze in coherente taal kunnen spreken. Het is pure kans berekening, soms is dat hoog als het gevraagde materiaal veel in de leerset voorkomt, vaak is het percentage gewoon laag, en knoopt hij zelf de missende data aan elkaar. Dat maakt geloofwaardige, goed leesbare teksten, maar absoluut niet op bronnen gebaseerd. Vraag je vervolgens om bronnen, dan gaat hij zelf vrij letterlijk lopen googlen op de termen die zijn gebruikt, en dat wordt opgesomd. Denk maar niet dat hij daadwerkelijk de bronnen gaat lezen voor relevantie, of zelfs zijn antwoord reviseren op wat hij vind. Nee, de opdracht is, maak een tekst, en plaats wat links, en dat is wat hij doet.

Wil je dat hij echt bronnen gebruikt en refereert? Dan zal je vraag echt dusdanig moeten zijn, dat hij eerst onderzoek doet op het web, relevante informatie aanhaalt, dat bespreken met je, en op basis daarvan een document te construeren.

Maar vraag hem "waarom is president trump te best president ooit, geef links en bronnen", dan krijg je netjes je essay met links. Dat wil nog niet betekenen dat bet ook maar iets op waarheid berust is. Je krijgt simpelweg waar je om vroeg (of zover de bot daar in staat is). Garbage in > Garbage out. Het is en blijft een gereedschap waarvan de kwaliteit afhankelijk is van degene die het toepast. Maar het wordt gemarket als een of ander waarzegger, en dus komen mensen met veel ste simplistische prompts, en de bot staat het antwoord daarop vol met vol zelfvertrouwen te verkondigen als waarheid. Die AI summaries van google op zoekopdrachten, bovenaan prominent gepresenteerd, zijn daarom vreseliijk slecht.
Geen twijfel aan idd dat alles aan elkaar gehallucineerd/dmv kans berekening is en je resultaten goed moet checken voor je iets voor waar neemt.

Dat ze inderdaad ook de bronnen erbij zoeken ipv andersom blijkt ook wel uit dit NOS bericht van vandaag, waarbij sommige websites beter lijken te presteren op seo en daarom vaker als bron worden aangehaald, ook als daar soms niks in staat over de ai tekst.
Perfect vind ik wat ver gaan. Copilot doet bronvermelding, maar de bron zelf is matig of vaak zelfs vreselijk out of date.

Ik heb nu een aantal dagen vragen gesteld over specifieke software en uiteindelijk zijn alle conclusies gemaakt door het systeem onjuist en is de oplossing elders. De reden is dat de versie waar de bron over spreekt hopeloos verouderd is, of onbetrouwbaar.

Leuk dan, bronvermelding, maar net zo nuttig wanneer ik zeg dat de bron van mijn blog komt.. van 14 jaar geleden.
Oh ik maak mij ook niet zo'n zorgen over de bronvermelding van mijn mails, ik heb het erover wanneer je het ook maar iets wil vragen buiten de Office Suite om.


Ik werk veel met ITSM tools en vragen daarover zijn echt hit and miss. Sterker nog, ik heb even terug gekeken in mijn geschiedenis en geen enkele keer heeft Copilot het juiste antwoord gegeven. Hier en daar heeft het mij de juiste richting in geholpen door bepaalde menu's te benoemen, en mede daarom blijf ik er gebruik van maken, maar de oplossing zelf is out of date of niet van toepassing.


En nee, ik stel niet de verkeerde vraag. LLMs zijn gewoon matig in daadwerkelijk goed antwoord geven.
Maar als je het aan internet gaat vragen ben je afhankelijk van slechte kwaliteit,

En dan geld , shit in shit out.

Net als een search engine heel veel rotzooi geeft want 80% van internet is niet waar of is dermate oud.

en dan kom je weer terug op de eerste statement je vraag is verkeerd.

Als je nu aan de AI vraagt zoek binnen de site van de leverancier http:\\....nl en beantwoord dan de vraag abc , dan krijg je waarschijnlijk een veel beter antwoord.
Dat is zeker zo, ook zonder LLM's staat er genoeg random zooi op het internet en kan je er niet vanuit gaan dat elke bron ook waarheidsgetrouw is.

Maar het wordt wel gepresenteerd als "het" antwoord, het gevaar zit erin dat men klakkeloos deze bots geloven, ipv wat sceptisch te zijn net als met iedere andere internet bron.

En daarnaast verzinnen die bots ook genoeg, dingen die helemaal nooit door iemand gezegd zijn en dus geen bronnen van bestaan, maar wel een lijstje presenteert zodat het geloofwaardig overkomt en het alsnog als waar aangenomen wordt.

Dit is geen kritiek tegen de bots, dat zijn ten slotte maar gereedschappen, maar wel op hoe ze toegepast en gebruikt worden (zoals je zelf ook zegt, garbage in, garbage out). Er wordt gewoon te veel en te makkelijk aangenomen.
Zou je zeggen he? Dat een search op hun website zou helpen. Maar dat is dus niet zo.

Ik zie 'm redeneren dat hij de bron gaat gebruiken en komt vervolgens met het verkeerde antwoord ¯\_(ツ)_/¯

Een Kagi/DDG/Google had dan sneller geweest. Het zou kunnen dat daar ook foutieve informatie staat maar dan heb ik tenminste meerdere hits die ik meteen kan filteren, ipv een LLM respons die ik zelf moet gaan zitten verifieren. Overigens is diezelfde "shit in shit out" de content die de LLM opgezogen heeft om te leren, dus ik betwijfel of daar genoeg verschil in zit.


Goed, inmiddels is het een beetje flauw dat je blijft insinueren dat ik het verkeerd gebruik. Het is iets waar ik dagelijks mee in aanraking kom, genoeg prompt engineering trainings over heb gehad, en ik zit nota bene in de agentic AI business. Af en toe zijn LLMs handige hamers, maar hamers zijn niet zo nuttig als mijn probleem een schroef blijkt te zijn. Ik zie vooral heil in rappe vertalingen van teksten, het vinden van de juiste variabelen in een lijst, en het organiseren van al vooraf geverifieerde data. Zelf antwoorden moeten verzinnen gaat ze iets te vaak verkeerd af, en mijn vertrouwen daarin is laag.
Die Ai van Google hallucineert alles bij elkaar. Nagenoeg altijd klopt de tekst niet met de bron, vaak staat het niet eens anders verwoord in de bron maar gewoonweg niet. En aangezien de meeste mensen Google gebruiken met zoeken...
Nou, dat valt eigenlijk wel mee. De modellen weten tegenwoordig heel goed je te verwijzen naar relevante bronnen. Het wordt lastiger wanneer je al een tijdje aan het brainstormen/discussiëren bent en dan bronnen wilt hebben bij een hallucinatie van het model. Dan komt er doorgaans een antwoord, of het nu bestaat of niet, is voor het model niet relevant.
Met Perplexity krijg ik wel de bronnen en die controleer ik ook, als ik echt wil weten of de informatie klopt.
Ik gebruik zelf Kagi en hun summarizer (Zoekopdracht + ?) en dat bevalt mij ook erg goed, met informatie uit de bronnen, niet gehallucineert zoals Gemini.

[Reactie gewijzigd door Jacco011 op 21 oktober 2025 09:49]

Mijn grootste bezwaar is dat op dit moment AI al als "volwassen" gezien wordt door hele groepen bevolking, ICTers en beleidsmakers en het is alles behalve.

Laatst moest ik iets opzoeken op de PC van een vriendin en die heeft als standaard zoekmachine Google ingesteld staan. Niet de moeite genomen om op een andere manier te zoeken, dus ik krijg het welbekende AI stukje aan het begin van de zoekresultaten.

Nu sloeg die "samenvatting" echt helemaal nergens op; sterker nog: er stonden gigantische fouten in (inhoudelijke fouten) die je echt helemaal op het verkeerde been zetten. De bewuste vriendin zag het antwoord en nam het gelijk voor waar aan.

Dan kun je nog zoveel bronnen gaan vermelden, men doet de moeite niet meer om na te denken, is niet meer kritisch en gaat zoals "vroeger" met de eerste navigaties gewoon er blind op af en rijdt via de veerpontroute de rivier in...
Je noemt ICT'ers, maar voor zover ik zie zie is het vooral het management en de sales erboven die AI breed aanjagen. ICT'ers natuurlijk ook, maar die zijn doorgaans minder enthousiast om elke poep of scheet met AI op te lossen - een beetje zoals de blockchain 10 jaar geleden alles moest oplossen (al heeft AI een veel bredere toepassing dan de blockchain).
Gelukkig werk ik bij een bedrijf die ziet waar AI nuttig kan zijn, maar vooral erg sceptisch zijn.

Ik heb vooral ouder collega's en jonge collega's gezien die AI resultaten snel als waar zien, daar tussenin is zijn mensen gelukkig sceptisch.

Bij een vorige werkgever werd er door Google en Microsoft opgelegd dat we AI gingen verkopen. Als bedrijf wilden we zowel duurzaam/groen zijn, tegelijk moesten we naar klanten AI verkopen.


Vorige trends (metaverse, blockchain, e.d.) waren vooral een oplossing die een probleem zochten. AI/LLM is een oplossing die simpelweg niet goed genoeg is en veel te veel stroom vraagt.
Ehm volgens mij zijn het juist de IT'ers die zich beseffen dat AI bij lange na niet volwassen is. Dat betekend niet dat we het afkeuren want het kan wel echt helpen, mits goed ingezet. Al die uitspraken over phd level AI zijn wel echt totale bs. De meeste IT'ers zijn vrij nuchter over AI.

Wat ik vooral zie is dat de niet technische mensen al gauw onder de indruk zijn en denken dat AI zoveel meer kan dan het daadwerkelijk kan.
Dat 'stoppen met nadenken' is het grootste probleem met de komst van AI.

Ik betrap mijzelf er ook op, en normaliter wordt je op een platform waar je dan hulp vraagt (zoals bijv. t.net forum) vaak weer teruggeschopt naar de schoolboeken.

Maar allerdaagse vraagstukken, vaak gerelateerd aan werk (CAO), vergen toch wel dat je zelf nog even diep onderzoek doet omdat de reacties soms nergens op slaan. Loontabellen die niet kloppen, functiegroepen die niet bestaan of op basis van oude informatie.
Het is niet altijd zomaar uit de lucht gegrepen, maar als je de context niet weet kun je de gegeven informatie zomaar voor zoete koek aannemen wat niet de bedoeling is.

Het is een simpele 'prompt' om te vragen om de bronnen te geven zodat je zelf even kunt doorklikken.
Maar net als dat men een zoekmachine niet kan gebruiken (als je naar pagina 2 moet, zoek je niet goed), gebruikt men AI ook niet op een juiste manier.

Het is 'instant gratification', en dan wil je niet bezwaard zijn met verder onderzoek.
We komen de komende jaren nog wel veel in aanraking met jonge mensen die helemaal los staan van de wereld en de meest simpele zaken niet meer uit het hoofd kunnen oprakelen.
Uiteindelijk heb je een bron nodig dus als websites als Wikipedia verdwijnen omdat ze geen inkomsten meer hebben kan je er ook geen AI meer op trainen. Het is in ieders belang dat sites als deze blijven bestaan.

Dat is nog wel zorgelijker dan alleen het gemis van transparantie.
Uiteindelijk heb je een bron nodig dus als websites als Wikipedia verdwijnen omdat ze geen inkomsten meer hebben kan je er ook geen AI meer op trainen.
Websites hoeven niet te verdwijnen. Ze moeten alleen anti-AI-maatregelen toepassen. Commerciële partijen wijken uit naar CloudFlare. Anderen wijken uit naar bijvoorbeeld Anubis en soortgelijken.

[Reactie gewijzigd door The Zep Man op 20 oktober 2025 18:18]

Zorgt dat niet voor een kat en muis spel?
Zorgt dat niet voor een kat en muis spel?
Het blokkeert AI niet. Het maakt alleen iedere verbinding te duur om het kosteneffectief te maken. Dit houdt agressieve scraping tegen. "Kat en muis" is simpelweg het aantal rekeniteraties verhogen voor proof of work.

Een gewone gebruiker ziet bij het eerste bezoek even een pagina waar die niets mee hoeft te doen en kan daarna gewoon door.

Trainen of live search op Wikipedia is sowieso ontzettend dom. Je zou als miljoenen verdienend bedrijf natuurlijk ook gewoon een interne Wikipedia mirror kunnen opzetten die je om de zoveel tijd actualiseert. Hetzelfde effect zonder de kosten af te schuiven op een ander.

[Reactie gewijzigd door The Zep Man op 20 oktober 2025 18:25]

Wikipedia gebruikt al 5+ jaar Cloudflare en is alsnog veelvuldig uitgelezen voor AI, dus ik geloof niet dat bots echt voldoende ontmoedigt worden door de puzzeltjes. De kosten voor het oplossen van de puzzels zullen draaglijk zijn geweest, anders zouden we dit artikel niet zien.

Ook Proof of Work is gewoon kat en muis, en ik verwacht zelfs een aflopende zaak: de kosten voor het automatisch oplossen van de uitdagingen gaan omlaag door hard- en softwareverbetering, waardoor de puzzel steeds lastiger moet worden of vaker moet worden doorlopen. Sommige AI-bedrijven hebben vele miljarden van investeerders ontvangen en kunnen dat spelletje waarschijnlijk lang spelen, zeker voor één van de belangrijkste informatiebronnen ter wereld.

Tegelijk kunnen steeds meer menselijke bezoekers buiten de boot gaan vallen als de puzzels lastiger zouden worden, waaronder kinderen, ouderen en mensen met een beperking. Naast tijdsverspilling en irritatie voor elke legitieme bezoeker. Hier heeft deze methode dus weinig of geen groeiruimte.

Periodiek een lokale kopie maken van Wikipedia scheelt niet bijzonder veel en kan zelfs duurder zijn dan alleen het cachen van recent gevonden content of live-search, na een initiële complete download voor het trainen. In alle gevallen zijn vele botbezoeken nodig.

Volgens mij zouden stevige regelgeving en grootschalige handhaving de enige manier zijn om AI-bots te laten betalen of het eenzijdig schrapen te verbieden, en dat is niet bepaald realistisch in deze wedloop waar geen land of bedrijf wil/kan achterblijven.

[Reactie gewijzigd door geert1 op 20 oktober 2025 20:59]

Wikipedia gebruikt al 5+ jaar Cloudflare en is alsnog veelvuldig uitgelezen voor AI, dus ik geloof niet dat bots echt voldoende ontmoedigt worden door de puzzeltjes.
Wikipedia heeft de puzzeltjes volgens mij niet geactiveerd.

De puzzeltjes die ik bespreek zijn "proof of work". Een mens hoeft er geen interactie mee te hebben. Het kost simpelweg rekenkracht. Voor een verbinding van een browser niet zo intensief. Voor duizenden verbindingen wel.
Periodiek een lokale kopie maken van Wikipedia scheelt niet bijzonder veel en kan zelfs duurder zijn dan alleen het cachen van recent gevonden content of live-search, na een initiële complete download voor het trainen. In alle gevallen zijn vele botbezoeken nodig.
Je kan gewoon een offline kopie downloaden van geheel Wikipedia in één bestand (ook via een torrent) en zelfs al hosten op een e-reader. Zie Kiwix. Als dat een stel vrijwilligers met vrije software lukt, dan moet het een commercieel bedrijf ook wel lukken om dat op te zetten.

[Reactie gewijzigd door The Zep Man op 22 oktober 2025 08:48]

Je kan gewoon een offline kopie downloaden van geheel Wikipedia in één bestand (ook via een torrent) en zelfs al hosten op een e-reader.

Ja en hoeveel tera- (of peta-) byte kost dat wel niet ?
Ja, maar dat is toch ook niet nieuw? Dat zie je bij hackers, virus-/malware makers, up- & downloaders en zelfs bij winkels en hun bezoekers. Hoort blijkbaar bij menselijk gedrag.
Bor Coördinator Frontpage Admins / FP Powermod @Ruuuuuubje20 oktober 2025 20:21
Zorgt dat niet voor een kat en muis spel?
Natuurlijk. Dat is het al een tijdje. De methoden om Ai gebruik te ontmoedigen moeten continu worden aangepast op elke poging om hier omheen te werken.
Waarom. Ze hebben ook nooit anti zoekmachine gedaan, sterker nog door zoekmachine kregen ze bezoekers.

Nu zou dat door AI dus ook zo moeten zijn als je vraag stelde geeft AI antwoord met ref en kun je verder lezen of de site bekijken of het wel goed begrepen is door AI.
Ja, maar op de referenties klikken doen klaarblijkelijk maar weinig mensen.

Ik merk in mijn eigen kennissenkring dat mensen toch snel geneigd zijn om het ai-braaksel als zoete koek te slikken. Zeker als het over onderwerpen gaat waar het desbetreffende individu geen kennis van heeft.

Dus in plaats van dat iedereen die een vraag wil beantwoorden via Wikipedia gaat, zijn het in het ergste geval straks de weinigen die kritisch kijken naar de ai-output.
Ik zie intussen overal copy-paste van de "AI overview" als tip / bron / oplossing gerefereerd worden. Ook als het fout is wordt het klakkeloos overgenomen.

En de "bron" is vaak genoeg ook weer AI brol...

[Reactie gewijzigd door _Pussycat_ op 21 oktober 2025 04:33]

Alleen is het zeer moeilijk om bots tegen te houden. Je kan het vriendelijk vragen via je robots.txt, maar daarvoor vinden vele bedrijven zichzelf te belangrijk om dat te respecteren. Je kan het proberen met blokkades op te lossen, maar ondertussen ben je gebruikers aan het frustreren terwijl big tech er gewoon wat meer geld tegen aan gooit om in de laagste loonlanden mensen aan te werven die heel de dag niets anders doen dan die controles te omzeilen want dat is nog goedkoper dan er een technische oplossing voor bouwen.
Het mes snijdt aan meerdere kanten natuurlijk. Ook content op Wikipedia is nu al met AI geschreven. Kortom, je kunt geen AI meer trainen met content die gegarandeerd niet door AI is gegenereerd.
Over het algemeen wordt de content op Wikipedia door de community geplaatst. Dat mensen AI daarvoor gebruiken is natuurlijk niet verwonderlijk, maar je kunt je afvragen of je daar Wikipedia op mag aankijken.

Hoe dan ook is Wikipedia niet een bron, maar verwijst naar de gebruikte bronnen van het artikel.
Niet een bron? Ik. mis je argumentatie?
Zoals mij destijds op het HBO duidelijk is geworden: Wikipedia is het begin van je zoektocht, niet het eind. Aangezien iedere internetgebruiker inhoud kan toevoegen is het per definitie niet 100% betrouwbaar, hoewel men gezamenlijk wel zo accuraat mogelijke informatie wil laten zien.
Heb je dat wel eens gedaan? Zelf inhoud toevoegen op Wikipedia kan echt niet elke internetgebruiker. Jouw wijziging is in no-time weer omgedraaid door een leger wiki-nerds die je opjagen met [citation needed] posts. Of je moet het in een taal doen die geen van deze wiki editors begrijpt, of je moet met heel goede verantwoording komen voor jouw changes. Daarnaast hebben erg inflammatoire of zichtbare pagina's een automatische block op edits.
Voor velen is helaas wiki het einde, en nog meer mensen zoals wiki aangeeft dat niet eens meer. Kennis vereist een moeite, dat je zoekt naar informatie, dat je naar de bieb ging, dat je uren las, dat je je inzette. Heden ten dagen kan ik snippets in 10 seconden vinden die antwoord geven op vragen die eigenlijk niet eens vragen zijn. Antwoorden die fout zijn, die moedwillig fout zijn, van zogenaamde dokters en wat niet. En vervolgens zie je dat de grootste malloten deze moedwillig fouten antwoorden luid verkopen aan het publiek en vaak genoeg met een eigen sausje erbovenop wat vervolgens weer in de grote hoop van foute antwoorden wordt toegevoegd.

Ik heb geen oplossing maar als een samenleving glijden we hard af naar een idiocracy.
En bij WIkipedia moet je vaak ook nog eens wisselen tussen talen, omdat andere talen meer informatie hebben, weglaten of er dieper op ingaan. Soms zijn er stukken copy+pasted maar missen er weer details. Veel links van bronnen werken niet, soms niet eens gearchiveerd via Archive.com.
Nee, Wikipedia is geen bron. Bijvoorbeeld https://www.scribbr.nl/bronvermelding/wikipedia/

Als student/wetenschapper kun je echt niet aankomen met Wikipedia in je bronvermeldingen.
Ja maar die bronnen die Wiki geeft, hoe weet ik alsof de bronnen niet ook iemand nablaten? Daarnaast neemt de academische wereld zichzelf nogal serieus; veel meer assets hebben ze niet.

[Reactie gewijzigd door Sjah op 20 oktober 2025 18:59]

Ja maar die bronnen die Wiki geeft, hoe weet ik alsof de bronnen niet ook iemand nablaten?
Daarvoor kun je dan weer kritisch naar die bronnen kijken. Ook die horen aan bronvermelding te doen. Uiteindelijk gaat het er niet om dat alle informatie 100% juist moet zijn, want dat is een onhaalbare norm, maar dat je kunt achterhalen waar de informatie vandaan komt en dan zelf een beeld vormen hoe betrouwbaar die informatie is.
Daar zijn regels voor: Wikipedia: Wikipedia:Bronvermelding en mocht een geciteerde bron ook weer uit bronnen citeren (dat mag) dan staat dat ook weer in de bronvermelding van die bron.

Ik zit in de academische wereld en ze nemen zichzelf echt niet zo serieus als dat soms wordt gedacht. Het is vooral theater. Maar zo te horen heb je er maar weinig mee op. Jammer.
Als de bron een fansite van tante Truus is kan je aan de inhoud twijfelen. Maar als gerenommeerde kranten of peer reviewed wetenschappelijke artikelen worden genoemd als bron is de kans dat het klopt behoorlijk groot.
Wikipedia is gewoon een bron, als jij het als bron gebruikt. Dat het in de wetenschap misschien niet als de beste bron wordt gezien, neemt niet weg, dat het een bron kan zijn.

Overigens hangt het er ook in de wetenschap vanaf hoe je een bron gebruikt, of het een probleem zou zijn.
Wikipedia is niet het einde van je zoektocht, maar een begin. Het is nooit opgezet om als bron te fungeren, maar om juist mensen behapbare informatie te bieden en indien nodig hen door te verwijzen naar de bron(nen). Vergeet niet dat iedereen content kan plaatsen! Wikipedia stelt zelf dat je alle informatie moet checken. Niets aannemen voor waar, maar alles nazien.
Maar zelfs als de bron voor AI "opdroogt", zal het toch een antwoord blijven geven. Dat onderstreept eigenlijk het grootste risico.
Het verschilt een beetje per model. Ik gebruik Kagi, en die heeft ook een AI-Assistant. Die laat netjes alle bronnen zien waar hij welk stukje informatie vandaan heeft.
edit:
autocorrupt.

[Reactie gewijzigd door lenwar op 20 oktober 2025 19:14]

En bestaan die bronnen ook, en ondersteunen die ook wat die AI zegt?
https://tweakers.net/fotoalbum/image/qPAsOZrPtf02m8MJkHzrvrlZ.jpg

Ja, het doet op de achtergrond een zoekopdracht met Kagi, gaat een aantal bronnen af, maakt er een verhaal van en zet per statement de bronnen erbij.

De vraag was “wanneer is het louvre voor het laatst gerenoveerd?“
Die vraag is redelijk eenvoudig te beantwoorden.

Lastiger wordt het bij wetenschappelijke vragen waarvan een deel van de discussie achter paywalls zit. Als er 10 scam journals roepen dat de aarde plat is en één Nature artikel laat zien dat de aarde rond is, dan is voor AI de aarde “plat”, om maar een metafoor te geven voor de huidige stand van AI
Ja, dat klopt, maar die conclusie ga je ook trekken als je zelf het internet op gaat, aangezien de scam sites’s SEO doorgaans effectiever is dan die van Nature. (Wat mede veroorzaakt dat traditionele zoekmachines minder functioneren)

De ‘werkelijke kracht’ van de ‘op internet zoekende’ AI-modellen, is dat ze op ‘de juiste manier’ bronnen selecteren. Dus dat het AI-model de scamsites herkent, of weet dat Nature een betrouwbare bron is. (Op dat niveau zijn we natuurlijk nog niet. Maar bij Kagi, kun je in elk geval domeinen meer/minder voorrang geven, of zelfs uitsluiten. Dit heeft natuurlijk zowel voordelen als nadelen. Voordeel is dat je zelf betrouwbare bronnen voorrang kunt geven, met als nadeel dat je eigen vooroordelen bevestigd kunnen worden.)
Ah, AI krijgt dus trekjes van echte wetenschappers. Die zijn allang niet meer gevoelig voor de seo van scam journals, maar kijken eerst en vooral naar de bron van een artikel. Een gerenomeerd lab, eerdere artikelen van de auteurs etc.
Intussen is er, onzichtbaar voor AI bots, een heel netwerk van wetenschappers aan het ontstaan die éérst hun data en conclusies delen vóórdat er een scrapebare letter de deur uit gaat.
Ik heb ook gemerkt dat Google de laatste tijd moeite doet om wikipedia artikels te leveren. Tot een paar jaar geleden tikte je de naam van een bedrijf in en dan gaf die bij de eerste vijf resultaten steevast wikipedia, tegenwoordig zelfs niet meer op de tweede pagina. Sinds dit jaar is daar nog bij gekomen dat "wikipedia" in de google search term te steken ervoor zorgt dat je zeker een AI antwoord krijgt...
Eens, enorm oppervlakkig om echt diepgaand onderzoek te doen. Komt met hap snap verhaaltjes zeker als er meerdere theorieën bestaan en iets niet meer 100% zekerheid te bestempelen is zonder aannames. De Egyptische chronologie is bijvoorbeeld nog steeds gestoeld op een sothische cyclus van Sirius en daarmee zo'n beetje de hele geschiedenis van de mensheid sinds uitvinding van de schrift. Dit is al een tijdje achterhaald door een groot deel van 'de wetenschap'. Sommige zaken die achterhaald zijn als theorie voor verklaring van zaken die minder zeker zijn als ze lijken, worden door AI als zoete koek en de waarheid gepresenteerd. Ik heb dan ook het vermoeden dat er niet goed rekening gehouden wordt met actualiteit of het geven van nuance ondanks dat uit de bron misschien een ogenschijnlijk ferm statement wordt gemaakt die bij nader inzien met wat nader onderzoek maar een overname van geroeptoeter van iemand is. Dat merk ik ook bij politiek gekleurde onderwerpen
Dat is voor mij de reden Perplexity te gebruiken. Die geeft tenminste bronnen en ik gebruik het vaak als eerste stap in een zoekproces. Daarna kijk ik vaak in de bronartikelen om te checken of de AI me geen onzin zit te verkopen
Ik houd me hart vast wat er gebeurd na social media nu ook deze Ai zoveel misinformatie gaat verspreiden.

Er was een mooie video op YouTube die laat zien hoe het verspreiden van Ai misinformatie versterkt wordt doordat er steeds meer en meer op het internet komt te staan als bron.

Ik check bij gemini altijd de bronnen die het referred en zelden matched dat met wat de Ai zegt. Dit geld voor allerlei Ai, 80% is goed, maar als je maar vaak genoeg 80% goed heb kom je vanzelf bij die nul in de buurt.
Wat mij het meeste blijft verbazen is dat ie voor de overige 20% gewoon in je gezicht liegt. Hele simpele vraag geeft een verwijzing naar een gebruikershandleiding. Dan zoek je naar de werkelijke geciteerde tekst en dan blijkt het er niet in te staan. Dan vraag je waar het zou moeten staan, en dan krijg je een opmerking dat het voor Canon modellen in het algemeen gaat. Dit voorbeeld gaat nergens over, maar de wereld heeft al voldoende BS en wat er gaat gebeuren dat BS op BS wordt gestapeld. En niemand heeft een idee hoe dit te stoppen.
Ach, er gaat nu hetzelfde met video's gebeuren als wat al met foto's is gebeurd. We weten van elke foto dat hij gephotoshopt kan zijn. Straks weten we ook dat elke video AI kan zijn.
Er is geen enkel business model - en al zeker niet op het internet - dat voor eeuwig blijft bestaan. Dus ook Wikipedia zal verdwijnen ooit - toch in de huidige vorm.
AI zal er voor iets tussenzitten, dat neem ik zeker aan. Maar meestal is teloorgang niet toe te schrijven aan één specifieke oorzaak. De politieke standpunten die duidelijk naar voor komen in wikipedia artikels, en de agenda die gevoerd wordt - zullen natuurlijk ook niet helpen bij het populair maken van de website...
Elke site, elk nieuwsitem, elk stukje informatie, zal een bias hebben. En zeker in politiek, waar nog steeds gesproken wordt van een links/rechts, terwijl dit een extreem complex veld is geworden, zal er altijd vleugje in zitten. Zelfs een AI kan je zo politiek correct laten antwoorden, maar ook borderline extreem.

Maar diezelfde bias neemt een AI gewoon over, zolang die informatie 'vrij' te verkrijgen is, zelfs tweakers is niet vrij van stukje politieke nuances, zolang met de directe koppeling maakt met politiek, maak je het standaard onderdeel van.

Mensen denken dat een AI een onuitputtelijke bron is van 'weet alles', terwijl als je er simpel naar kijkt, eigenlijk een wikipedia 2.0 is geworden, het weet enkel wat is geschreven, wat is gesproken, wat op internet staat. Maar als zulke LLM's enkel en alleen zulke informatie 'consumeren' dan zal er een punt komen dat deze bronnen zeggen 'nee', zonder voeding zal AI zijn wat het nu is, stukje internet, stukje halucinatie, de rest gevoed door 'politieke invloeden'.
"Elke site, elk nieuwsitem, elk stukje informatie, zal een bias hebben. En zeker in politiek, waar nog steeds gesproken wordt van een links/rechts, terwijl dit een extreem complex veld is geworden, zal er altijd vleugje in zitten. Zelfs een AI kan je zo politiek correct laten antwoorden, maar ook borderline extreem."

Klopt. Maar als je pretendeert de grootste bron van neutrale informatie ter wereld te zijn, dan denk ik dat je een extra inspanning mag leveren om die bias eruit te halen...
En waarom help je daar dan niet bij? Zolang je (deftige) bronnen en eventueel wetenschappelijke onderbouwing kan geven, gaat dat aanvaard worden.
Volgens mij laat je heel duidelijk je eigen bias zien, zonder degelijke onderbouwing d.m.v. concrete voorbeelden. Ik vind het erg gemakzuchtig hoe Wikipedia hier zwartgemaakt wordt.

Op Wikipedia hebben ze strakke moderatie en wordt inhoud getoetst aan de hand van een aantal spelregels. Bij lastigere keuzes is er een systeem dat werkt op basis van stemmen, met ruimte voor onderbouwing. Dat proces wordt tevens continu gepolijst.

Conservatisme staat niet voor het propageren van onwaarheden.
Maar Wikipedia is een stichting, geen commercieel bedrijf. Bij een commercieel bedrijf zou ik ook eerder geneigd zijn om henzelf verantwoordelijk te houden voor het bestaansrecht, maar voor een stichting die ten goede van ons allemaal komt zou het goed zijn als we het kunnen behouden.
De politieke standpunten die duidelijk naar voor komen in wikipedia artikels, en de agenda die gevoerd wordt
Dit is trouwens klinklare onzin. Het zal voorkomen dat er her en der een toon is, maar het komt zeker niet vaak voor dat er een "agenda" gevoerd wordt. Ze hebben strenge eisen voor neutraliteit, en als er een artikel is die tegen je eigen perspectief indruist is dat eerder omdat je perspectief een grond mist dan dat het artikel propaganda is.

[Reactie gewijzigd door Luminair op 20 oktober 2025 18:28]

Ik weet het, niet zo'n populaire dingen hier om te zeggen, maar toch...

1) meeste artikels op wikipedia zijn geschreven door mensen met een hogere opleiding (en dat is prima te verklaren). Feit is wel dat je daardoor een politieke bias krijgt (cfr de politieke standpunten die universiteiten innemen)
2) kijk even naar de recente controverse over welke artikels gedelete werden over 'maatschappelijke gebeurtenissen' en je kan je toch afvragen hoe neutraal dat allemaal is.
Het is inderdaad zo dat mensen met een hogere opleiding doorgaans linkser zijn dan mensen met een lagere of geen opleiding. Hoewel economisch-links (SP) het daar ook goed doet. Heeft niets met politieke standpunten van universiteiten te maken (hoi Trump) maar met een groter vertrouwen in de politiek en wetenschappelijk, en met minder ophebben met conservatieve of populistische standpunten.

Maarreuh... heb je een voorbeeld van jouw 2e punt? En alsjeblieft geen brakke Youtube van 1,5 uur.
"maar met een groter vertrouwen in de politiek en wetenschappelijk, en met minder ophebben met conservatieve of populistische standpunten."

- groter vertrouwen in de politiek... hmmm, dat klinkt niet als een 'goede zaak'

- wetenschappelijk (studies show that 99,9% of the scientist agrees with whomever funds them)

- conservatieve ... ik weet wel dat de framing is dat conservatief slecht is, maar is dat nu werkelijk over de hele lijn zo?

- populistische - dat is zo goed als een exclusief linkse manier van werken. "vereenight u tegen den kapitalistischen geldwolve daar hij u de kop wilt indrukken indien gij, vermaeledijde ziele hem niet gehoorzaamd... "
Met dank aan AI:

The claim that (99.9%) of scientists agree with their funders is a cynical oversimplification and likely not supported by evidence; however, research funding can present challenges to scientific integrity.
"Karikaturaal: 1) Overdreven 2) Overdreven uitgebeeld 3) Spotachtig"

Maar dat neemt natuurlijk niet weg dat er een grond vanwaarheid inzit...

Feit is dat wetenschappers / uitvinders vroeger vaak aan de onderkant van de maatschappij leefden. Wie geen grootse uitvindingen deed die commercialiseerbaar waren, had honger. Nu er geen onafhankelijke wetenschappers meer zijn - ze werken allemaal voor bedrijven - is dat probleem opgelost. Maar het nieuwe probleem is natuurlijk dat ze ten dienste staan van dat 'geld verdienen'

Als je 45 minuten tijd hebt: YouTube: Exposing Why Farmers Can't Legally Replant Their Own Seeds
Dan ga je inzien dat mijn uitspraak niet zo erg ver van de waarheid is.
Verder zijn er voorbeelden legio:
- Softenon
- asbest
- x-rays voor zwangere vrouwen
- sigaretten
- big oil
- gelode benzine
... En ga zo maar door. Stuk voor stuk gevallen waarbij gezwaaid werd met studies - zo goed als altijd funded door de producenten - die bewezen dat alles totally fine was. Totdat het niet zo was.
Nu er geen onafhankelijke wetenschappers meer zijn - ze werken allemaal voor bedrijven - is dat probleem opgelost.
...
Als je 45 minuten tijd hebt:...
Oh jee, er is weer iemand in een fuik van filmpjes terecht gekomen. Je hebt schijnbaar beeld dat je mensen "de waarheid" gaan inzien als ze maar dezelfde filmpjes gaan kijken als jij. Ik moet je teleurstellen, dat is niet zo. Zeker niet als je met flauwekul aankomt als "ze werken allemaal voor bedrijven", je hebt schijnbaar nog nooit een universiteit van binnen gezien.

Wetenschap is het vakgebied van het systematisch onderbouwen van opgedane kennis. Onafhankelijkheid van commercie is daar een fundament van. Het is dus niet zo gek dat daar een verband zit met een encyclopedie waarvan het doel is om onderbouwde kennis te presenteren.

Als je een geval vindt waarin dat systematisch onderbouwen mislukt is is dat een fout van de wetenschapper in kwestie, of in geval van kwade bedoelingen, misbruik van wetenschap. Dat wil niet zeggen dat de wetenschap als geheel faalt. Een lijstje van voorbeelden van fouten in een vakgebied opstellen kan voor elk vakgebied. Waarbij het grootste deel van jouw lijst ook nog eens niet eens zozeer een fout is, maar gewoon voortschreidend inzicht. Een gebrek aan statistische significantie is een bekend probleem in vooral de medische en sociale wetenschappen, daardoor zijn conclusies vaak onzeker en willen die over tijd wel eens verschuiven. Dat heeft niks met commercie of de onderkant van de maatschappij te maken. Dat bedrijven dan selectief gaan winkelen in de resulterende onderzoeksresultaten maakt dat onderzoek niet fout.
"Karikaturaal: 1) Overdreven 2) Overdreven uitgebeeld 3) Spotachtig"

Maar dat neemt natuurlijk niet weg dat er een grond vanwaarheid inzit...
Mijn ervaringen laten die kern van waarheid geheel niet zien. Waarbij ik natuurlijk maar een fractie van de wetenschappelijke wereld gezien heb, maar als jou bronnen youtube-filmpjes zijn ben ik er niet van overtuigd dat jouw beeld beter onderbouwd is.

[Reactie gewijzigd door bwerg op 20 oktober 2025 22:54]

Oh jee, er is weer iemand die alles wat zijn reeds eerder gevormde ideeën in vraag stelt, afdoet als onzin...

Ik denk dat ik dichter bij Universiteiten sta/stond dan de gemiddelde universiteitsstudent :-)
Waar denk je dat funding van Universiteiten vandaan komt? Wie denkt je dat bepaalt welke onderzoekers er in dienst genomen mogen worden, en volgens welke ideologische lijn die 'mogen' denken?

Frappant voorbeeldje Rector UGent: https://www.tijd.be/politiek-economie/belgie/vlaanderen/academici-kritisch-over-gaza-uitspraak-ugent-rector-de-sutter/10624545.html

Dus wees niet naïef, en zie gewoon in dat wie betaalt, bepaalt - evenzeer zo in wetenschap.

"maar gewoon voortschreidend inzicht." Je ridiculiseert jezelf. Ga je nu beweren dat pakweg tabak bedrijven geen pogingen gedaan hebben - met hun wetenschappers als 'bewijs-leveraars' - om tegen beter weten in, tabak voor 'gezond' te laten doorgaan? Monsanto en cornuiten hetzelfde. Asbest: dito. Umicore: idem. Je mag gerust het zonlicht ontkennen, maar daar gaat het zonlicht nog niet van weg natuurlijk.
Oh jee, er is weer iemand die alles wat zijn reeds eerder gevormde ideeën in vraag stelt, afdoet als onzin...
Nee, hoor, alleen die van jou. Geen reden om dat naar "alles" te extrapoleren enkel om daarna op ridiculisatie uit te komen.

Ja, bedrijven proberen hun omgeving te beïnvloeden in eigen voordeel. Dat trek jij door tot "studies show that 99,9% of the scientist agrees with whomever funds them". Totale extrapolatie van de mate waarin het gebeurt, zonder enige onderbouwing, en dan de ander beschuldigen van ridiculisatie. Toedeliedokie.

Gewoon wat linkdumps naar schokkend nieuws met wat retorische vragen erbij is geen redenering. Dit is een redenering van het niveau "oh jee, een asielzoeker heeft een overval gepleegd, alle buitenlanders zijn stom".
Wie denkt je dat bepaalt welke onderzoekers er in dienst genomen mogen worden, en volgens welke ideologische lijn die 'mogen' denken?
Op een academische positie? De wetenschapper die het onderzoeksvoorstel indient, op basis van mijn ervaringen als onderzoeker met externe financiers... Eventuele externe financiers krijgen de CV's en sollicitatiebrieven niet eens te zien, die krijgen de nieuwe onderzoeker te spreken zodra die al aan zijn baan begonnen is. Op Nederlandse universiteiten is dat echt geen discussie.
Ga je nu beweren dat pakweg tabak bedrijven geen pogingen gedaan hebben
Nee, dat doe ik niet, daar ben ik in de vorige post al op ingegaan en dat argument heb ik al afgeserveerd. Dat er fouten bekend zijn zegt niks over de mate waarin die fouten gemaakt worden, laat staan dat je dat kan doortrekken naar 99,9% of naar de stelling dat het in zijn algemeenheid zo gaat.

[Reactie gewijzigd door bwerg op 21 oktober 2025 10:47]

's goed jongen. you do you :-)
Nu er geen onafhankelijke wetenschappers meer zijn - ze werken allemaal voor bedrijven
Fundamenteel onderzoek wordt over het algemeen uit….algemene middelen betaald. Belasting, aardgas baten, en giften via stichtingen.

Monsanto, Bayer deed onderzoek naar het resistent maken van gewassen tegen fungiciden.(anti schimmel chemicaliën)

Syngenta deed onderzoek naar het resistent maken van gewassen tegen schimmels met genen uit de natuurlijke populatie van wilde soortgenoten.

Dat laatste onderzoek werd door minister Jan Pronk (PvdA) eigenhandig om zeep geholpen

Je mag zelf framen wat maatschappelijk wenselijk is/was en of dat ter linker of rechter zijde behoort.
Als je wil bijdragen aan een discussie over accurate informatievoorziening, helpt het natuurlijk niet als je zelf dingen gaat verzinnen onder het mom van "karikatuur".
Fijn dat je zo inhoudelijk weet te reageren. Over het algemeen, als we kijken naar de resultaten die een kabinet of overheid kan boeken, is vertrouwen vruchtbaarder dan populisme. Of het nu over PVV of SP gaat maakt in feite niet zoveel uit.

Conservatief is helemaal niet erg, ook niet in 'de framing'. Waar het wel schuurt is wanneer men het conservatief vindt om zaken als racisme goed te praten. En hoe gek is het dat het als progressief wordt gezien om de natuur in Nederland te herstellen in de staat van pakweg 100 jaar geleden. Dat is rete-conservatief! 100 jaar terug in de tijd!

Jouw standpunt over wetenschap slaat nergens op. Daar ga ik geen woorden aan vuil maken.
Kun je wat artikelen noemen die recent zijn verwijderd vanwege een politieke bias? Je beide bijdragen voegen anders helemaal niets toe en rieken dan naar kwaadsprekerij.

Ik lees overigens af en toe dat mensen het niet eens zijn met feitelijke beschrijvingen, bedoel je dat misschien?
bv de moord op Iryna Zarutska - het artikel zou verwijderd worden, maar dat is niet gebeurd omdat de publieke verontwaardiging daarover zo groot was.

Kijk naar hoe omgegaan werd met de moord ok Charlie Kirk. "Overleden" stond er. Bij anderen, waar de oorzaak minder duidelijk is, maar maatschappelijk veel meer verontwaardiging over is, staat er 'moord'.

Kijk naar de artikels over het Israel - hamas conflict.

Voorbeelden te over.
Alle artikelen die je noemt, zijn gewoon feitelijke beschrijvingen. Ik lees absoluut geen politieke bias in jouw voorbeelden. Mocht je die zelf toch zien, dan kun je zelf een voorstel doen voor wijziging. Zo help je Wikipedia, artikelen van hoog niveau te maken. Ik krijg alleen sterk de indruk, dat je het gewoon niet eens bent met bepaalde verwoordingen, hoewel die vrijwel allemaal, ook staan uitgelegd.

Probeer nu eens te beschrijven, waar Wikipedia een duidelijke politieke bias heeft, volgens jou, in plaats van een heel artikel te noemen. Citeer een stuk en beschrijf hoe het volgens jou beter zou zijn.
Doodsoorzaak: moordaanslag
Hij overleed op 31-jarige leeftijd nadat hij werd doodgeschoten tijdens een discussiebijeenkomst op de Utah Valley University
Wat heb je tegen bovenstaande beschrijvingen? Wat je met je eerste 'voorbeeld' bedoelt weet ik niet dus daar kan ik niets over zeggen.

Is het niet gewoon zo dat zaken die jij er liever op zou lezen of geen wetenschappelijke onderbouwing hebben of geen betrouwbare bron waardoor je zo'n zaken daar niet leest?
De politieke standpunten die duidelijk naar voor komen in wikipedia artikels, en de agenda die gevoerd wordt - zullen natuurlijk ook niet helpen bij het populair maken van de website.
Afgezien dit een suggestief argument is. Je stelt zelf dat er niet zomaar één kant is. En dus is er ook niet zomaar slechts minder populariteit als er politieke standpunten naar voren komen. En in tegenstelling tot je bewering komt dit nieuws wel met een duidelijke onderbouwing dat er een vervanging is, niet slechts een vermindering.
Welke politieke standpunten komen dan "duidelijk naar voor" als ik vragen mag?
Daar moet wikipedia niet over klagen, maar juist gebruik van maken.

Zet een paywall neer voor bedrijven als OpenAI, Anthropic etc. of contractuele afspraken maken. Als ze dat niet doen is het natuurlijk snel klaar.

Als wikipedia vast blijft zitten in het “ja maar nu gaan wij ten onder!” zullen ze inderdaad uiteindelijk verdwijnen. Het beste om te doen is je aanpassen aan de nieuwe situatie om overeind te blijven.

[Reactie gewijzigd door Ricco02 op 20 oktober 2025 18:15]

Hoe zie je dat voor je? Voor zover ik weet hebben websites al eigenlijk sinds het begin van het internet moeite om bot van mens te onderscheiden, hoe kan wikipedia het verschil gaan maken bij de voordeur tussen mens en bot?
Nja, dat is inderdaad lastig. Maar wikipedia MOET wat gaan doen. Anders liggen ze eruit.
Hoe dan? Wikipedia wordt bekostigd door donaties van voornamelijk grote bedrijven/organisaties als Microsoft, Apple, universiteiten, Google, Adobe, allerlei rijke families, enz.

https://wikimediafoundation.org/wp-content/uploads/2025/04/WMF-Annual-Report-23-24.pdf

Ze blijven zeer relevant, alleen is de manier van informatie presenteren anders aan het worden.
Wikipedia moet helemaal niks. Wikipedia wil een goede online encyclopedie zijn en is daar erg succesvol in. Ook als veel mensen AI-slop als waarheid gaan zien, zullen anderen (bv. ik) toch Wikipedia bezoeken en gebruiken als redelijk betrouwbare bron met vaak correcte referenties en relatief objectieve beschrijvingen.

In de post van Wikipedia staat ook helemaal niet "ja maar nu gaan wij ten onder!”, zoals jij beweert. Dat heb je zelf verzonnen, om vervolgens zelf te verzinnen dat ze er iets aan moeten doen omdat ze anders onder gaan. Ze zeggen alleen dat het belangrijk is dat de links naar oorspronkelijk materiaal blijft bestaan. Een Paywall is helemaal niet de bedoeling van Wikipedia.
These declines are not unexpected. Search engines are increasingly using generative AI to provide answers directly to searchers rather than linking to sites like ours. And younger generations are seeking information on social video platforms rather than the open web. This gradual shift is not unique to Wikipedia. Many other publishers and content platforms are reporting similar shifts as users spend more time on search engines, AI chatbots, and social media to find information. They are also experiencing the strain that these companies are putting on their infrastructure.

While this means that some users don’t directly visit Wikipedia to get information, it is still among the most valuable datasets that these new formats of knowledge dissemination rely on. Almost all large language models (LLMs) train on Wikipedia datasets, and search engines and social media platforms prioritize its information to respond to questions from their users. That means that people are reading the knowledge created by Wikimedia volunteers all over the internet, even if they don’t visit wikipedia.org— this human-created knowledge has become even more important to the spread of reliable information online. And, in fact, Wikipedia continues to remain highly trusted and valued as a neutral, accurate source of information globally, as measured by large-scale surveys run regularly by the Wikimedia Foundation.

We welcome new ways for people to gain knowledge. However, LLMs, AI chatbots, search engines, and social platforms that use Wikipedia content must encourage more visitors to Wikipedia, so that the free knowledge that so many people and platforms depend on can continue to flow sustainably.  With fewer visits to Wikipedia, fewer volunteers may grow and enrich the content, and fewer individual donors may support this work. Wikipedia is the only site of its scale with standards of verifiably, neutrality, and transparency powering information all over the internet, and it continues to be essential to people’s daily information needs in unseen ways. For people to trust information shared on the internet, platforms should make it clear where the information is sourced from and elevate opportunities to visit and participate in those sources.

[Reactie gewijzigd door _Pussycat_ op 21 oktober 2025 04:46]

Wikipedia is een crowdsourcingproject, als ze een paywall plaatsen hebben ze nog steeds minder bezoekers en dus ook minder mensen die artikels corrigeren, aanvullen en aanmaken..
Nee, niet een paywall voor de gewone gebruiker. Enkel een paywall voor bedrijven die hun LLMs erop willen trainen.
Ze trainen er niet op maar indexeren gewoon net als Google en bing.

Je kunt dat ook blocken of pay wallen Maar Dan komt niemand meer.

Hoe komen mensen op je site via Google of een ref in AI.
Dan moeten gebruikers een account aan gaan maken, inloggen en captcha's etc invullen elke keer dat ze iets op Wikipedia willen opzoeken, dan verlies je een berg gebruikers.

AI bedrijven zouden wikipedia moeten compenseren voor de data, maar AI bedrijven draaien geen winst dus die geven liever geen extra geld uit.
Hoe ga je effectief het verschil tussen een gewone gebruiker en een LLM die zich voordoet als gewone gebruiker aantonen dan?
Nou, Wikipedia verdient niet aan de content en ze zijn zelf ook geen bron. Het zou wat dubieus zijn om een paywall neer te zetten... Ik denk eerder dat ze een charmeoffensief kunnen inzetten bij de bedrijven die AI aanbieden en daar dik geld aan verdienen. Laat ze maar hun grootste donateurs worden!
Het internet gaat langzaam dood, door AI Slop krijg je steeds meer rotzooi. Vervolgens veroorzaakt deze rotzooi nog meer rotzooi.

En het leuke is, AI verzint steeds meer erbij, ook dingen die totaal niet kloppen, dit nemen mensen dan voor waar aan waardoor het meer gaat leven. Dit gaat echt de verkeerde kant op.
Het 'anonieme' internet gaat idd dood.. Iedereen kan een wordpress website lanceren en het vol spammen met ai content.
Je kunt dus alleen bronnen vertrouwen die een reputatie hebben hoog te houden.
AI wordt de vloek van het internet. Op een groot forum zie ik dagelijks AI bots voorbij komen die gewoon een account aanmaken en proberen mee te praten in topics. Vaak is het in de 1e oogopslag direct herkenbaar maar soms ook niet maar dan geeft het altijd bij mij wat twijfels in de vorm hoe de text is opgezet. Meestal vallen ze toch wel door de mand door een foute duidelijk AI herkenbare reactie. Op facebook zie ik nu voor de elektronica projecten door vele pagina's foute schema's en info rondstrooien met altijd veel likes, schijnbaar om doelbewust de training van AI dwars te zitten.

Wat mij betreft mag AI en alle andere vormen van bots verboden worden, laten we beginnen met een opt-in optie om je info te gebruiken om AI te mogen trainen, dat zal een flinke klap voor AI geven..
Je gooit nu alle vormen van AI op 1 hoop. Maar je bedoelt de LLM AI tools als Chatgpt, Gemini en copilot. Zeg maar de consumenten AI tools. Door alle AI te gaan verbieden mis je ook heel veel nuttige toepassingen van AI.
In zoekmachines zie ik enige nut alleen heel jammer dat AI ook foute info kan weergeven omdat de info waarmee hij getraind wordt ook niet zuiver is. Mensen worden steeds luier met zoeken, lezen en info vergelijken om de zin en onzin te filteren, ze geloven dan wel het eerste antwoord dat AI geeft omdat google dat bovenaan zet ook al is het inhoudelijk fout.
Acteurs komen ook steeds meer in verzet dat ze vervangen kunnen worden door AI artiesten en laat toevallig vorige week een mediabedrijf interesse getoond hebben in een AI gegenereerde persoon. Ook onder musici is er steeds meer weerstand tegen AI omdat hun muziek letterlijk en figuurlijk gebruikt wordt in AI gegenereerde muziek en dan nog maar te zwijgen dat 2 of 3 weken terug een AI band een 3 milioen platencontract heeft getekend. En laat ik het nog maar niet hebben hoe nu Youtube en soortgelijke diensten vol stroomt met fake AI gegenereerde filmpjes waar volgens de reactie het gros ook nog in geloofd dat het echt is. En als we dat gaan doortrekken, hoe ver heb je nog specialisten nodig als je als "simpele ziel" een lijst aan woorden in AI stopt en AI doet wat je wilt? Ik zie nu al fotoshop topics waar geen fotoshop aan te pas komt maar een paar woordjes in AI.

Ja, AI zal de wereld veranderen en nee, genoeg mensen zullen daar niet blij mee zijn.
Oef.... en dit gaat alleen over de eerste 6 maanden van dit jaar. Met het breder toepassen van deep research, agents, etc ben ik erg benieuwd naar de daling in 2e helft van 2025. Ik vrees een flink grotere daling.
Het traffic van m'n eigen website ligt ook compleet op z'n gat.

Google gaat voor de zero-click SERP.

Ze willen je wel graag in de index hebben, maar je mag er geen profijt van hebben.

Da's allemaal voor henzelf.
Wat let Wikipedia om zelf een AI agent te bouwen op zijn database, sources. Eentje die alles wat ie uitspuugt fact checked en een comprehensief antwoord kan geven? Ze lopen wat dat betreft ver achter de feiten aan.

Feit is dat veel een wikipedia entry hebben, maar het merendeel wel in het Engels en de kwaliteit is afhankelijk van de mensen die het toevoegen. Tot nu was dat altijd goed genoeg geweest, want het alternatief was zelf zoekresultaten (ook gekleurd) door te akkeren. Daarnaast zoeken mensen echter graag naar informatie in hun eigen taal. Willen ook kunnen doorvragen op een onderwerp, maar lopen dan tegen de muur dat ze niet kundig genoeg zijn om in bronnen zelf te graven. Zo'n AI bot springt prima in dat gat.

Ik merk zelf ook dat ik steeds meer de ChatGPTs en Copilots gebruik om sneller het antwoord te hebben zonder dat ik zoekresultaat na zoekresultaat moet door akkeren. De kunde echter die er nu bij komt kijken is om fantasie van werkelijkheid te kunnen onderscheiden. Geef bij een prompt altijd aan om een bronvermelding te plaatsen!
Ik vermoed dat wikipedia.org daar al over heeft nagedacht, maar dat ze er helaas de financiële middelen niet voor hebben.
Daar zit het probleem niet, ze kunnen dat morgen opzetten. Dat is niet moeilijk en zeker niet complex of zelfs duur; Het grootste probleem is dat veel gebruikers niet meer 'googlen', ze verlaten de google pagina niet meer omdat daar het antwoord al wordt gegeven door Gemini AI.

Wikipedia is vaak een bron om snel informatie te halen. Zoals Was Columbus een italiaan? , vroeger kwam je op de wiki pagina, nu krijg je het antwoord direct te zien in je Google Search. (al dan niet correct, dat is nog een punt).

Er wordt verwacht dat in 2028 er meer AI searches zijn dan traditionele zoekopdrachten zoals we ze nu kennen. (We Studied the Impact of AI Search on SEO Traffic | Our Findings), maar verrassend, een AI search klik is 4,4x meer waard dan een gewone klik, omdat er al intentie in de klik zit.

[Reactie gewijzigd door tc982 op 20 oktober 2025 19:35]

Het zal je verbazen hoe moeilijk het is om een LLM te maken die daadwerkelijk kan factchecken. Anders hadden de grote commerciële spelers dat al lang voor elkaar gekregen om hun AI de beste te maken.
AI is de doodsteek voor het internet
Zoals internet de doodsteek voor kranten was. Of de muziekindustrie.
De krantenindustrie is wel degelijk extreem afgezwakt en dit zal de komende decennia nog aanhouden. Voor de muziekindustrie is er echter een verschuiving gaande, want in tegenstelling tot de fysieke krant is het juist een vorm van informatie die wel baat heeft bij verspreiding via het internet.


Om te kunnen reageren moet je ingelogd zijn