Wikipedia ziet flinke afname in webverkeer van mensen, wijst AI aan als oorzaak

Online-encyclopedie Wikipedia meldt dat webverkeer van menselijke gebruikers afneemt en bestempelt de opkomst van AI als oorzaak hiervoor. Steeds meer bezoek aan Wikipedia bestaat uit bots die data verzamelen voor AI-chatbots, AI-overzichten en andere AI-gegenereerde output.

Wikipedia zag in de eerste zes maanden van dit jaar een daling van 8 procent in het verkeer van menselijke gebruikers. Dat is in vergelijking met het jaar ervoor en na bijstelling van de algoritmes voor het analyseren van bezoek, schrijft Ghacks.net. Wikipedia zag in mei dit jaar namelijk opvallend grote aantallen bezoekers vanuit Brazilië komen, die aanvankelijk menselijke bezoekers leken maar toch bots bleken te zijn. Verkeer van bots bleek goed verhuld te zijn, om als menselijk bezoek over te komen.

De Wikimedia-stichting, de organisatie achter Wikipedia, meent dat de daling in bezoek te wijten is aan AI. Bots en scrapers worden niet meer alleen ingezet voor bijvoorbeeld het aanmaken van indexen voor zoekmachines, maar ook voor het vergaren van data om AI-modellen te trainen. AI-aanbieders, maar ook de marktdominante zoekmachine Google, gebruiken zulke input om met AI-chatbots antwoorden te genereren.

Wikimedia stelt in een blogpost dat er bij zulke informatievergaring voor AI niet altijd wordt teruggelinkt naar de bron. Dat kan websites veel verkeer van menselijke bezoekers schelen. Wikipedia is niet de enige partij die daar last van heeft, aldus de blogpost 'New User Trends on Wikipedia'. "Veel andere uitgeverijen en contentplatformen melden soortgelijke verschuivingen doordat gebruikers meer tijd doorbrengen op zoekmachines, AI-chatbots en sociale media om informatie te vinden." Tegelijkertijd ondervinden contentorganisaties zoals Wikipedia wel de belasting van dataverzamelende bots op hun IT-infrastructuur.

Door Jasper Bakker

Nieuwsredacteur

20-10-2025 • 18:06

97

Submitter: TheVivaldi

Reacties (97)

Sorteer op:

Weergave:

Ik vrees dat de manier hoe we het internet gaan gebruiken zal evolueren, maar niet ten goede van transparantie. Ik vind dat AI bijv. nog steeds onvoldoende laat zien welke bronnen ze gebruiken. Iets wat met een Wikipedia wel een stukje beter is geborgd (uiteraard niet vlekkeloos).
Mijn grootste bezwaar is dat op dit moment AI al als "volwassen" gezien wordt door hele groepen bevolking, ICTers en beleidsmakers en het is alles behalve.

Laatst moest ik iets opzoeken op de PC van een vriendin en die heeft als standaard zoekmachine Google ingesteld staan. Niet de moeite genomen om op een andere manier te zoeken, dus ik krijg het welbekende AI stukje aan het begin van de zoekresultaten.

Nu sloeg die "samenvatting" echt helemaal nergens op; sterker nog: er stonden gigantische fouten in (inhoudelijke fouten) die je echt helemaal op het verkeerde been zetten. De bewuste vriendin zag het antwoord en nam het gelijk voor waar aan.

Dan kun je nog zoveel bronnen gaan vermelden, men doet de moeite niet meer om na te denken, is niet meer kritisch en gaat zoals "vroeger" met de eerste navigaties gewoon er blind op af en rijdt via de veerpontroute de rivier in...
Je noemt ICT'ers, maar voor zover ik zie zie is het vooral het management en de sales erboven die AI breed aanjagen. ICT'ers natuurlijk ook, maar die zijn doorgaans minder enthousiast om elke poep of scheet met AI op te lossen - een beetje zoals de blockchain 10 jaar geleden alles moest oplossen (al heeft AI een veel bredere toepassing dan de blockchain).
Ehm volgens mij zijn het juist de IT'ers die zich beseffen dat AI bij lange na niet volwassen is. Dat betekend niet dat we het afkeuren want het kan wel echt helpen, mits goed ingezet. Al die uitspraken over phd level AI zijn wel echt totale bs. De meeste IT'ers zijn vrij nuchter over AI.

Wat ik vooral zie is dat de niet technische mensen al gauw onder de indruk zijn en denken dat AI zoveel meer kan dan het daadwerkelijk kan.
Uiteindelijk heb je een bron nodig dus als websites als Wikipedia verdwijnen omdat ze geen inkomsten meer hebben kan je er ook geen AI meer op trainen. Het is in ieders belang dat sites als deze blijven bestaan.

Dat is nog wel zorgelijker dan alleen het gemis van transparantie.
Uiteindelijk heb je een bron nodig dus als websites als Wikipedia verdwijnen omdat ze geen inkomsten meer hebben kan je er ook geen AI meer op trainen.
Websites hoeven niet te verdwijnen. Ze moeten alleen anti-AI-maatregelen toepassen. Commerciële partijen wijken uit naar CloudFlare. Anderen wijken uit naar bijvoorbeeld Anubis en soortgelijken.

[Reactie gewijzigd door The Zep Man op 20 oktober 2025 18:18]

Zorgt dat niet voor een kat en muis spel?
Zorgt dat niet voor een kat en muis spel?
Het blokkeert AI niet. Het maakt alleen iedere verbinding te duur om het kosteneffectief te maken. Dit houdt agressieve scraping tegen. "Kat en muis" is simpelweg het aantal rekeniteraties verhogen voor proof of work.

Een gewone gebruiker ziet bij het eerste bezoek even een pagina waar die niets mee hoeft te doen en kan daarna gewoon door.

Trainen of live search op Wikipedia is sowieso ontzettend dom. Je zou als miljoenen verdienend bedrijf natuurlijk ook gewoon een interne Wikipedia mirror kunnen opzetten die je om de zoveel tijd actualiseert. Hetzelfde effect zonder de kosten af te schuiven op een ander.

[Reactie gewijzigd door The Zep Man op 20 oktober 2025 18:25]

Wikipedia gebruikt al 5+ jaar Cloudflare en is alsnog veelvuldig uitgelezen voor AI, dus ik geloof niet dat bots echt voldoende ontmoedigt worden door de puzzeltjes. De kosten voor het oplossen van de puzzels zullen draaglijk zijn geweest, anders zouden we dit artikel niet zien.

Ook Proof of Work is gewoon kat en muis, en ik verwacht zelfs een aflopende zaak: de kosten voor het automatisch oplossen van de uitdagingen gaan omlaag door hard- en softwareverbetering, waardoor de puzzel steeds lastiger moet worden of vaker moet worden doorlopen. Sommige AI-bedrijven hebben vele miljarden van investeerders ontvangen en kunnen dat spelletje waarschijnlijk lang spelen, zeker voor één van de belangrijkste informatiebronnen ter wereld.

Tegelijk kunnen steeds meer menselijke bezoekers buiten de boot gaan vallen als de puzzels lastiger zouden worden, waaronder kinderen, ouderen en mensen met een beperking. Naast tijdsverspilling en irritatie voor elke legitieme bezoeker. Hier heeft deze methode dus weinig of geen groeiruimte.

Periodiek een lokale kopie maken van Wikipedia scheelt niet bijzonder veel en kan zelfs duurder zijn dan alleen het cachen van recent gevonden content of live-search, na een initiële complete download voor het trainen. In alle gevallen zijn vele botbezoeken nodig.

Volgens mij zouden stevige regelgeving en grootschalige handhaving de enige manier zijn om AI-bots te laten betalen of het eenzijdig schrapen te verbieden, en dat is niet bepaald realistisch in deze wedloop waar geen land of bedrijf wil/kan achterblijven.

[Reactie gewijzigd door geert1 op 20 oktober 2025 20:59]

Ja, maar dat is toch ook niet nieuw? Dat zie je bij hackers, virus-/malware makers, up- & downloaders en zelfs bij winkels en hun bezoekers. Hoort blijkbaar bij menselijk gedrag.
Bor Coördinator Frontpage Admins / FP Powermod @Ruuuuuubje20 oktober 2025 20:21
Zorgt dat niet voor een kat en muis spel?
Natuurlijk. Dat is het al een tijdje. De methoden om Ai gebruik te ontmoedigen moeten continu worden aangepast op elke poging om hier omheen te werken.
Waarom. Ze hebben ook nooit anti zoekmachine gedaan, sterker nog door zoekmachine kregen ze bezoekers.

Nu zou dat door AI dus ook zo moeten zijn als je vraag stelde geeft AI antwoord met ref en kun je verder lezen of de site bekijken of het wel goed begrepen is door AI.
Ja, maar op de referenties klikken doen klaarblijkelijk maar weinig mensen.

Ik merk in mijn eigen kennissenkring dat mensen toch snel geneigd zijn om het ai-braaksel als zoete koek te slikken. Zeker als het over onderwerpen gaat waar het desbetreffende individu geen kennis van heeft.

Dus in plaats van dat iedereen die een vraag wil beantwoorden via Wikipedia gaat, zijn het in het ergste geval straks de weinigen die kritisch kijken naar de ai-output.
Het mes snijdt aan meerdere kanten natuurlijk. Ook content op Wikipedia is nu al met AI geschreven. Kortom, je kunt geen AI meer trainen met content die gegarandeerd niet door AI is gegenereerd.
Over het algemeen wordt de content op Wikipedia door de community geplaatst. Dat mensen AI daarvoor gebruiken is natuurlijk niet verwonderlijk, maar je kunt je afvragen of je daar Wikipedia op mag aankijken.

Hoe dan ook is Wikipedia niet een bron, maar verwijst naar de gebruikte bronnen van het artikel.
Niet een bron? Ik. mis je argumentatie?
Zoals mij destijds op het HBO duidelijk is geworden: Wikipedia is het begin van je zoektocht, niet het eind. Aangezien iedere internetgebruiker inhoud kan toevoegen is het per definitie niet 100% betrouwbaar, hoewel men gezamenlijk wel zo accuraat mogelijke informatie wil laten zien.
Nee, Wikipedia is geen bron. Bijvoorbeeld https://www.scribbr.nl/bronvermelding/wikipedia/

Als student/wetenschapper kun je echt niet aankomen met Wikipedia in je bronvermeldingen.
Ja maar die bronnen die Wiki geeft, hoe weet ik alsof de bronnen niet ook iemand nablaten? Daarnaast neemt de academische wereld zichzelf nogal serieus; veel meer assets hebben ze niet.

[Reactie gewijzigd door Sjah op 20 oktober 2025 18:59]

Daar zijn regels voor: Wikipedia: Wikipedia:Bronvermelding en mocht een geciteerde bron ook weer uit bronnen citeren (dat mag) dan staat dat ook weer in de bronvermelding van die bron.

Ik zit in de academische wereld en ze nemen zichzelf echt niet zo serieus als dat soms wordt gedacht. Het is vooral theater. Maar zo te horen heb je er maar weinig mee op. Jammer.
Ja maar die bronnen die Wiki geeft, hoe weet ik alsof de bronnen niet ook iemand nablaten?
Daarvoor kun je dan weer kritisch naar die bronnen kijken. Ook die horen aan bronvermelding te doen. Uiteindelijk gaat het er niet om dat alle informatie 100% juist moet zijn, want dat is een onhaalbare norm, maar dat je kunt achterhalen waar de informatie vandaan komt en dan zelf een beeld vormen hoe betrouwbaar die informatie is.
Als de bron een fansite van tante Truus is kan je aan de inhoud twijfelen. Maar als gerenommeerde kranten of peer reviewed wetenschappelijke artikelen worden genoemd als bron is de kans dat het klopt behoorlijk groot.
Wikipedia is gewoon een bron, als jij het als bron gebruikt. Dat het in de wetenschap misschien niet als de beste bron wordt gezien, neemt niet weg, dat het een bron kan zijn.

Overigens hangt het er ook in de wetenschap vanaf hoe je een bron gebruikt, of het een probleem zou zijn.
Maar zelfs als de bron voor AI "opdroogt", zal het toch een antwoord blijven geven. Dat onderstreept eigenlijk het grootste risico.
Het is met de huidige modellen onmogelijk om betrouwbaar terug te linken. Een model weet niet waar het haalt wat het schrijft. Het kan wel proberen op basis van wat het geschreven heeft te zoeken in brondata (het internet of een repository met trainingsdata). Maar dat is natuurlijk niet echt betrouwbaar.
Copilot doet het anders perfect. Meld netjes alles wat en waar
Die Ai van Google hallucineert alles bij elkaar. Nagenoeg altijd klopt de tekst niet met de bron, vaak staat het niet eens anders verwoord in de bron maar gewoonweg niet. En aangezien de meeste mensen Google gebruiken met zoeken...
Nou, dat valt eigenlijk wel mee. De modellen weten tegenwoordig heel goed je te verwijzen naar relevante bronnen. Het wordt lastiger wanneer je al een tijdje aan het brainstormen/discussiëren bent en dan bronnen wilt hebben bij een hallucinatie van het model. Dan komt er doorgaans een antwoord, of het nu bestaat of niet, is voor het model niet relevant.
Het verschilt een beetje per model. Ik gebruik Kagi, en die heeft ook een AI-Assistant. Die laat netjes alle bronnen zien waar hij welk stukje informatie vandaan heeft.
edit:
autocorrupt.

[Reactie gewijzigd door lenwar op 20 oktober 2025 19:14]

En bestaan die bronnen ook, en ondersteunen die ook wat die AI zegt?
https://tweakers.net/fotoalbum/image/qPAsOZrPtf02m8MJkHzrvrlZ.jpg

Ja, het doet op de achtergrond een zoekopdracht met Kagi, gaat een aantal bronnen af, maakt er een verhaal van en zet per statement de bronnen erbij.

De vraag was “wanneer is het louvre voor het laatst gerenoveerd?“
Ik heb ook gemerkt dat Google de laatste tijd moeite doet om wikipedia artikels te leveren. Tot een paar jaar geleden tikte je de naam van een bedrijf in en dan gaf die bij de eerste vijf resultaten steevast wikipedia, tegenwoordig zelfs niet meer op de tweede pagina. Sinds dit jaar is daar nog bij gekomen dat "wikipedia" in de google search term te steken ervoor zorgt dat je zeker een AI antwoord krijgt...
Er is geen enkel business model - en al zeker niet op het internet - dat voor eeuwig blijft bestaan. Dus ook Wikipedia zal verdwijnen ooit - toch in de huidige vorm.
AI zal er voor iets tussenzitten, dat neem ik zeker aan. Maar meestal is teloorgang niet toe te schrijven aan één specifieke oorzaak. De politieke standpunten die duidelijk naar voor komen in wikipedia artikels, en de agenda die gevoerd wordt - zullen natuurlijk ook niet helpen bij het populair maken van de website...
Maar Wikipedia is een stichting, geen commercieel bedrijf. Bij een commercieel bedrijf zou ik ook eerder geneigd zijn om henzelf verantwoordelijk te houden voor het bestaansrecht, maar voor een stichting die ten goede van ons allemaal komt zou het goed zijn als we het kunnen behouden.
De politieke standpunten die duidelijk naar voor komen in wikipedia artikels, en de agenda die gevoerd wordt
Dit is trouwens klinklare onzin. Het zal voorkomen dat er her en der een toon is, maar het komt zeker niet vaak voor dat er een "agenda" gevoerd wordt. Ze hebben strenge eisen voor neutraliteit, en als er een artikel is die tegen je eigen perspectief indruist is dat eerder omdat je perspectief een grond mist dan dat het artikel propaganda is.

[Reactie gewijzigd door Luminair op 20 oktober 2025 18:28]

Ik weet het, niet zo'n populaire dingen hier om te zeggen, maar toch...

1) meeste artikels op wikipedia zijn geschreven door mensen met een hogere opleiding (en dat is prima te verklaren). Feit is wel dat je daardoor een politieke bias krijgt (cfr de politieke standpunten die universiteiten innemen)
2) kijk even naar de recente controverse over welke artikels gedelete werden over 'maatschappelijke gebeurtenissen' en je kan je toch afvragen hoe neutraal dat allemaal is.
Het is inderdaad zo dat mensen met een hogere opleiding doorgaans linkser zijn dan mensen met een lagere of geen opleiding. Hoewel economisch-links (SP) het daar ook goed doet. Heeft niets met politieke standpunten van universiteiten te maken (hoi Trump) maar met een groter vertrouwen in de politiek en wetenschappelijk, en met minder ophebben met conservatieve of populistische standpunten.

Maarreuh... heb je een voorbeeld van jouw 2e punt? En alsjeblieft geen brakke Youtube van 1,5 uur.
"maar met een groter vertrouwen in de politiek en wetenschappelijk, en met minder ophebben met conservatieve of populistische standpunten."

- groter vertrouwen in de politiek... hmmm, dat klinkt niet als een 'goede zaak'

- wetenschappelijk (studies show that 99,9% of the scientist agrees with whomever funds them)

- conservatieve ... ik weet wel dat de framing is dat conservatief slecht is, maar is dat nu werkelijk over de hele lijn zo?

- populistische - dat is zo goed als een exclusief linkse manier van werken. "vereenight u tegen den kapitalistischen geldwolve daar hij u de kop wilt indrukken indien gij, vermaeledijde ziele hem niet gehoorzaamd... "
Met dank aan AI:

The claim that (99.9%) of scientists agree with their funders is a cynical oversimplification and likely not supported by evidence; however, research funding can present challenges to scientific integrity.
"Karikaturaal: 1) Overdreven 2) Overdreven uitgebeeld 3) Spotachtig"

Maar dat neemt natuurlijk niet weg dat er een grond vanwaarheid inzit...

Feit is dat wetenschappers / uitvinders vroeger vaak aan de onderkant van de maatschappij leefden. Wie geen grootse uitvindingen deed die commercialiseerbaar waren, had honger. Nu er geen onafhankelijke wetenschappers meer zijn - ze werken allemaal voor bedrijven - is dat probleem opgelost. Maar het nieuwe probleem is natuurlijk dat ze ten dienste staan van dat 'geld verdienen'

Als je 45 minuten tijd hebt: YouTube: Exposing Why Farmers Can't Legally Replant Their Own Seeds
Dan ga je inzien dat mijn uitspraak niet zo erg ver van de waarheid is.
Verder zijn er voorbeelden legio:
- Softenon
- asbest
- x-rays voor zwangere vrouwen
- sigaretten
- big oil
- gelode benzine
... En ga zo maar door. Stuk voor stuk gevallen waarbij gezwaaid werd met studies - zo goed als altijd funded door de producenten - die bewezen dat alles totally fine was. Totdat het niet zo was.
Kun je wat artikelen noemen die recent zijn verwijderd vanwege een politieke bias? Je beide bijdragen voegen anders helemaal niets toe en rieken dan naar kwaadsprekerij.

Ik lees overigens af en toe dat mensen het niet eens zijn met feitelijke beschrijvingen, bedoel je dat misschien?
bv de moord op Iryna Zarutska - het artikel zou verwijderd worden, maar dat is niet gebeurd omdat de publieke verontwaardiging daarover zo groot was.

Kijk naar hoe omgegaan werd met de moord ok Charlie Kirk. "Overleden" stond er. Bij anderen, waar de oorzaak minder duidelijk is, maar maatschappelijk veel meer verontwaardiging over is, staat er 'moord'.

Kijk naar de artikels over het Israel - hamas conflict.

Voorbeelden te over.
Alle artikelen die je noemt, zijn gewoon feitelijke beschrijvingen. Ik lees absoluut geen politieke bias in jouw voorbeelden. Mocht je die zelf toch zien, dan kun je zelf een voorstel doen voor wijziging. Zo help je Wikipedia, artikelen van hoog niveau te maken. Ik krijg alleen sterk de indruk, dat je het gewoon niet eens bent met bepaalde verwoordingen, hoewel die vrijwel allemaal, ook staan uitgelegd.

Probeer nu eens te beschrijven, waar Wikipedia een duidelijke politieke bias heeft, volgens jou, in plaats van een heel artikel te noemen. Citeer een stuk en beschrijf hoe het volgens jou beter zou zijn.
Doodsoorzaak: moordaanslag
Hij overleed op 31-jarige leeftijd nadat hij werd doodgeschoten tijdens een discussiebijeenkomst op de Utah Valley University
Wat heb je tegen bovenstaande beschrijvingen? Wat je met je eerste 'voorbeeld' bedoelt weet ik niet dus daar kan ik niets over zeggen.

Is het niet gewoon zo dat zaken die jij er liever op zou lezen of geen wetenschappelijke onderbouwing hebben of geen betrouwbare bron waardoor je zo'n zaken daar niet leest?
De politieke standpunten die duidelijk naar voor komen in wikipedia artikels, en de agenda die gevoerd wordt - zullen natuurlijk ook niet helpen bij het populair maken van de website.
Afgezien dit een suggestief argument is. Je stelt zelf dat er niet zomaar één kant is. En dus is er ook niet zomaar slechts minder populariteit als er politieke standpunten naar voren komen. En in tegenstelling tot je bewering komt dit nieuws wel met een duidelijke onderbouwing dat er een vervanging is, niet slechts een vermindering.
Elke site, elk nieuwsitem, elk stukje informatie, zal een bias hebben. En zeker in politiek, waar nog steeds gesproken wordt van een links/rechts, terwijl dit een extreem complex veld is geworden, zal er altijd vleugje in zitten. Zelfs een AI kan je zo politiek correct laten antwoorden, maar ook borderline extreem.

Maar diezelfde bias neemt een AI gewoon over, zolang die informatie 'vrij' te verkrijgen is, zelfs tweakers is niet vrij van stukje politieke nuances, zolang met de directe koppeling maakt met politiek, maak je het standaard onderdeel van.

Mensen denken dat een AI een onuitputtelijke bron is van 'weet alles', terwijl als je er simpel naar kijkt, eigenlijk een wikipedia 2.0 is geworden, het weet enkel wat is geschreven, wat is gesproken, wat op internet staat. Maar als zulke LLM's enkel en alleen zulke informatie 'consumeren' dan zal er een punt komen dat deze bronnen zeggen 'nee', zonder voeding zal AI zijn wat het nu is, stukje internet, stukje halucinatie, de rest gevoed door 'politieke invloeden'.
"Elke site, elk nieuwsitem, elk stukje informatie, zal een bias hebben. En zeker in politiek, waar nog steeds gesproken wordt van een links/rechts, terwijl dit een extreem complex veld is geworden, zal er altijd vleugje in zitten. Zelfs een AI kan je zo politiek correct laten antwoorden, maar ook borderline extreem."

Klopt. Maar als je pretendeert de grootste bron van neutrale informatie ter wereld te zijn, dan denk ik dat je een extra inspanning mag leveren om die bias eruit te halen...
En waarom help je daar dan niet bij? Zolang je (deftige) bronnen en eventueel wetenschappelijke onderbouwing kan geven, gaat dat aanvaard worden.
Volgens mij laat je heel duidelijk je eigen bias zien, zonder degelijke onderbouwing d.m.v. concrete voorbeelden. Ik vind het erg gemakzuchtig hoe Wikipedia hier zwartgemaakt wordt.

Op Wikipedia hebben ze strakke moderatie en wordt inhoud getoetst aan de hand van een aantal spelregels. Bij lastigere keuzes is er een systeem dat werkt op basis van stemmen, met ruimte voor onderbouwing. Dat proces wordt tevens continu gepolijst.

Conservatisme staat niet voor het propageren van onwaarheden.
Welke politieke standpunten komen dan "duidelijk naar voor" als ik vragen mag?
Ik houd me hart vast wat er gebeurd na social media nu ook deze Ai zoveel misinformatie gaat verspreiden.

Er was een mooie video op YouTube die laat zien hoe het verspreiden van Ai misinformatie versterkt wordt doordat er steeds meer en meer op het internet komt te staan als bron.

Ik check bij gemini altijd de bronnen die het referred en zelden matched dat met wat de Ai zegt. Dit geld voor allerlei Ai, 80% is goed, maar als je maar vaak genoeg 80% goed heb kom je vanzelf bij die nul in de buurt.
Wat mij het meeste blijft verbazen is dat ie voor de overige 20% gewoon in je gezicht liegt. Hele simpele vraag geeft een verwijzing naar een gebruikershandleiding. Dan zoek je naar de werkelijke geciteerde tekst en dan blijkt het er niet in te staan. Dan vraag je waar het zou moeten staan, en dan krijg je een opmerking dat het voor Canon modellen in het algemeen gaat. Dit voorbeeld gaat nergens over, maar de wereld heeft al voldoende BS en wat er gaat gebeuren dat BS op BS wordt gestapeld. En niemand heeft een idee hoe dit te stoppen.
Ach, er gaat nu hetzelfde met video's gebeuren als wat al met foto's is gebeurd. We weten van elke foto dat hij gephotoshopt kan zijn. Straks weten we ook dat elke video AI kan zijn.
Daar moet wikipedia niet over klagen, maar juist gebruik van maken.

Zet een paywall neer voor bedrijven als OpenAI, Anthropic etc. of contractuele afspraken maken. Als ze dat niet doen is het natuurlijk snel klaar.

Als wikipedia vast blijft zitten in het “ja maar nu gaan wij ten onder!” zullen ze inderdaad uiteindelijk verdwijnen. Het beste om te doen is je aanpassen aan de nieuwe situatie om overeind te blijven.

[Reactie gewijzigd door Ricco02 op 20 oktober 2025 18:15]

Hoe zie je dat voor je? Voor zover ik weet hebben websites al eigenlijk sinds het begin van het internet moeite om bot van mens te onderscheiden, hoe kan wikipedia het verschil gaan maken bij de voordeur tussen mens en bot?
Nja, dat is inderdaad lastig. Maar wikipedia MOET wat gaan doen. Anders liggen ze eruit.
Hoe dan? Wikipedia wordt bekostigd door donaties van voornamelijk grote bedrijven/organisaties als Microsoft, Apple, universiteiten, Google, Adobe, allerlei rijke families, enz.

https://wikimediafoundation.org/wp-content/uploads/2025/04/WMF-Annual-Report-23-24.pdf

Ze blijven zeer relevant, alleen is de manier van informatie presenteren anders aan het worden.
Wikipedia is een crowdsourcingproject, als ze een paywall plaatsen hebben ze nog steeds minder bezoekers en dus ook minder mensen die artikels corrigeren, aanvullen en aanmaken..
Nee, niet een paywall voor de gewone gebruiker. Enkel een paywall voor bedrijven die hun LLMs erop willen trainen.
Ze trainen er niet op maar indexeren gewoon net als Google en bing.

Je kunt dat ook blocken of pay wallen Maar Dan komt niemand meer.

Hoe komen mensen op je site via Google of een ref in AI.
Dan moeten gebruikers een account aan gaan maken, inloggen en captcha's etc invullen elke keer dat ze iets op Wikipedia willen opzoeken, dan verlies je een berg gebruikers.

AI bedrijven zouden wikipedia moeten compenseren voor de data, maar AI bedrijven draaien geen winst dus die geven liever geen extra geld uit.
Nou, Wikipedia verdient niet aan de content en ze zijn zelf ook geen bron. Het zou wat dubieus zijn om een paywall neer te zetten... Ik denk eerder dat ze een charmeoffensief kunnen inzetten bij de bedrijven die AI aanbieden en daar dik geld aan verdienen. Laat ze maar hun grootste donateurs worden!
Het internet gaat langzaam dood, door AI Slop krijg je steeds meer rotzooi. Vervolgens veroorzaakt deze rotzooi nog meer rotzooi.

En het leuke is, AI verzint steeds meer erbij, ook dingen die totaal niet kloppen, dit nemen mensen dan voor waar aan waardoor het meer gaat leven. Dit gaat echt de verkeerde kant op.
Het 'anonieme' internet gaat idd dood.. Iedereen kan een wordpress website lanceren en het vol spammen met ai content.
Je kunt dus alleen bronnen vertrouwen die een reputatie hebben hoog te houden.
Oef.... en dit gaat alleen over de eerste 6 maanden van dit jaar. Met het breder toepassen van deep research, agents, etc ben ik erg benieuwd naar de daling in 2e helft van 2025. Ik vrees een flink grotere daling.
Het traffic van m'n eigen website ligt ook compleet op z'n gat.

Google gaat voor de zero-click SERP.

Ze willen je wel graag in de index hebben, maar je mag er geen profijt van hebben.

Da's allemaal voor henzelf.
Wat let Wikipedia om zelf een AI agent te bouwen op zijn database, sources. Eentje die alles wat ie uitspuugt fact checked en een comprehensief antwoord kan geven? Ze lopen wat dat betreft ver achter de feiten aan.

Feit is dat veel een wikipedia entry hebben, maar het merendeel wel in het Engels en de kwaliteit is afhankelijk van de mensen die het toevoegen. Tot nu was dat altijd goed genoeg geweest, want het alternatief was zelf zoekresultaten (ook gekleurd) door te akkeren. Daarnaast zoeken mensen echter graag naar informatie in hun eigen taal. Willen ook kunnen doorvragen op een onderwerp, maar lopen dan tegen de muur dat ze niet kundig genoeg zijn om in bronnen zelf te graven. Zo'n AI bot springt prima in dat gat.

Ik merk zelf ook dat ik steeds meer de ChatGPTs en Copilots gebruik om sneller het antwoord te hebben zonder dat ik zoekresultaat na zoekresultaat moet door akkeren. De kunde echter die er nu bij komt kijken is om fantasie van werkelijkheid te kunnen onderscheiden. Geef bij een prompt altijd aan om een bronvermelding te plaatsen!
Ik vermoed dat wikipedia.org daar al over heeft nagedacht, maar dat ze er helaas de financiële middelen niet voor hebben.
Daar zit het probleem niet, ze kunnen dat morgen opzetten. Dat is niet moeilijk en zeker niet complex of zelfs duur; Het grootste probleem is dat veel gebruikers niet meer 'googlen', ze verlaten de google pagina niet meer omdat daar het antwoord al wordt gegeven door Gemini AI.

Wikipedia is vaak een bron om snel informatie te halen. Zoals Was Columbus een italiaan? , vroeger kwam je op de wiki pagina, nu krijg je het antwoord direct te zien in je Google Search. (al dan niet correct, dat is nog een punt).

Er wordt verwacht dat in 2028 er meer AI searches zijn dan traditionele zoekopdrachten zoals we ze nu kennen. (We Studied the Impact of AI Search on SEO Traffic | Our Findings), maar verrassend, een AI search klik is 4,4x meer waard dan een gewone klik, omdat er al intentie in de klik zit.

[Reactie gewijzigd door tc982 op 20 oktober 2025 19:35]

AI is de doodsteek voor het internet
Zoals internet de doodsteek voor kranten was. Of de muziekindustrie.
Nooit meer op Wikipedia geweest sinds AI, moet er echt niet meer aan denken zelf door websites te zoeken. Voelt als die boeken van Twee voor 12.


Om te kunnen reageren moet je ingelogd zijn