Amazon, Meta en andere AI-bedrijven gaan Wikipedia betalen voor toegang

Amazon, Meta, Microsoft, Mistral en Perplexity hebben een overeenkomst gesloten met de Wikimedia Foundation waarbij die bedrijven betalen voor het gebruik van Wikipedia-content. De AI-bedrijven krijgen toegang tot de betaalde api, waarmee ze content van de site kunnen gebruiken in hun taalmodellen.

De Wikimedia Foundation schrijft dat in een blogpost, hoewel het erop lijkt dat de overeenkomst met een aantal van de bedrijven in het afgelopen jaar al is opgezet. Onder de deal gaan de bedrijven gebruikmaken van de betaalde api van Wikipedia. Die bestaat sinds 2021. Toen zette de Wikimedia Foundation, de stichting achter Wikipedia, een commerciële dienst op, Wikimedia Enterprise. Die biedt betaalde toegang tot de encyclopedie met behulp van een api.

Wikimedia Enterprise zegt niet hoeveel geld er gemoeid is met de overeenkomst. Het bedrijf zegt nooit publiek wat de api kost en stemt die bedragen af per partner. Ook noemt het geen andere details over de samenwerking. Volgens Wikimedia 'helpt de samenwerking het werk van internationale vrijwilligers bij het bereiken van miljarden mensen'.

Het is maar de vraag of de overeenkomst niet te laat komt. De grote taalmodellen gebruiken al jaren content van Wikipedia en in principe is dat toegestaan onder de gebruikerslicentie van de encyclopedie. Dat begint inmiddels problemen op te leveren voor Wikipedia. De website zag vorig jaar een grote afname van verkeer en wees AI-modellen daarvoor aan als oorzaak. De site vroeg techbedrijven toen te betalen voor het gebruik van de informatie. Andere bedrijven doen dat overigens al: Google, Ecosia en een aantal kleine AI-bedrijven gebruiken de api al langer. Wikimedia Enterprise heeft de toegang ook gratis beschikbaar gesteld aan The Internet Archive.

Wikipedia
Voorbeeld van een willekeurige pagina op Wikipedia

Door Tijs Hofmans

Nieuwscoördinator

16-01-2026 • 08:18

87

Submitter: jvdmeer

Reacties (87)

Sorteer op:

Weergave:

Hier tekent wikipedia toch op termijn haar eigen doodvonnis? Als al die modellen getraind zijn dan heb je ze toch niet meer nodig?
Ik denk dat Wikipedia ten dode opgeschreven is door de wereldopvatting. Ze bieden content gratis aan, advertentieloos en ze sourcen hun content in de community. Ze gaan er hierbij vanuit dat mensen naar al te graag pagina's vol willen schrijven en dat wat er staat ook nog eens correct of n ieder geval met bewijslast aanwezig is. Dat lukt aardig.

Maar dan kom je met het verdienmodel. Natuurlijk maken ze kosten, maar hun primaire gedachte is dat ze de boel gratis willen houden en dat je alleen hoeft te betalen als je dat wilt. Allemaal heel nobel, maar hoeveel mensen zullen zich niet dood hebben geërgerd aan alle mails, banners en dergelijke toen ze echt in geldnood zaten?

Ik denk dat deze betaalde API een doekje voor het bloeden moet zijn en deze gigantische AI-bedrijven zullen ook wel snappen dat Wikipedia een groot onderdeel vormt van wat zij kunnen, hoewel de informatie natuurlijk ook op veel andere plekken op het internet wel te vinden is. Ik neem echter aan dat het trainen van een taalmodel op Wikipedia sneller gaat dan op het gehele internet.

Kortom: dit kan wat mij betreft om twee redenen zijn: óf ze betalen nu voor de API om Wikipedia zo lang mogelijk te kunnen blijven gebruiken óf het is een soort erkenning voor de rol die Wikipedia jarenlang heeft vervuld, een soort bloedgeld omdat AI die rol overneemt.
Wikipedia is recent nooit echt in geldnood geweest, in tegenstelling tot wat hun fondswerving banners impliceren.

De Wikimedia foundation maakt bepaalde kosten voor o.a. software ontwikkelaars, marketing, events, grants en hosting, etc. Die kosten zijn significant maar in principe werven ze over het algemeen meer fondsen dan dat ze uitgeven. (De API access heeft iig het afgelopen jaar daar ook sterk aan bijgedragen volgens mij)

Los daarvan hebben ze significant geld op de rekening staan, en een endowment fund.

Kritische blogpost van een user
Wikimedia financial report summary

Hiermee wil ik niet zeggen dat de foundation slecht bezig is, of geen geld zou moeten krijgen, maar de manier van communiceren rondom de fondswerving heeft mij altijd tegen de borst gestoten. Ik ben daar niet de enige in. Het voelt als emotionele manipulatie, al is het waarschijnlijk wel effectief.

Daarnaast kun je je inderdaad afvragen of de zaken waar ze geld in steken het geld waard zijn, maar goed dat is altijd natuurlijk.
Sterker nog, de inkomsten van die banners is bijna niks ivm grote donaties. In sommige gevallen kost het zelfs geld omdat ze buitenlandse valuta moeten omzetten naar USD.

Ze werken vanuit een centrale plek, alle hosting zit op een colocatie, ze hebben geen buitenlandse kantoren, het is een stichting dus bijna geen belasting. Voor een internationale organisatie werken ze financieel gezien redelijk efficient.

Dat ze niet afhankelijk zijn van grote donaties is goed, dan is die API access echt goed. Maar laten we eerlijk zijn, een overgroot deel van het geld wat ze binnen krijgen steken ze weer in andere projecten, dus om de website staande te houden is eigenlijk niet zoveel nodig. Dat jank verhaal in de banners klopt dus niks van en ik dacht dat ze daar ook mee zijn gestopt.

[Reactie gewijzigd door TechSupreme op 16 januari 2026 10:58]

Dat omzetten hangt ervanaf aan wie je doneert. Doneer je aan WMF? Dan ja. Doneer je aan WMNL of WMBE? Dan niet.
We hebben het over de banners, die gaan naar de Foundation. In hun financieel rapport zeggen ze dat ze verlies draaien op het omzetten van valuta. 300k ofzo dacht ik.

[Reactie gewijzigd door TechSupreme op 16 januari 2026 11:15]

Nee hoor, op de Nederlandstalige Wikipedia staan soms ook banieren voor WMNL. Sterker nog: als actieve Wikipe- en Wikimediaan heb ik zelfs als eens over de ontwerpen en inhoud daarvan mee mogen denken.

[Reactie gewijzigd door TheVivaldi op 16 januari 2026 11:28]

Gefeliciteerd, dan nog het is duidelijk dat we het hebben over de foundation. Moraal van het verhaal is dat het gross van de inkomst komt van grote donaties.

En als ik dan toch iemand van de Nederlandse Stichting aan de lijn heb, kap gewoon met die giga grote onzin banners. Het is alleen maar irritant en je jaarverslagen zeggen iets totaal anders.

Wat je nu doet is gelijk aan oplichters in vakantieoorden die op straat bedelen om vervolgens in een dikke bak te stappen.

[Reactie gewijzigd door TechSupreme op 16 januari 2026 16:10]

Wikipedia heeft nooit echt in geldnood gezeten. De Wikimedia foundation doet meer dan alleen Wikipedia. Wikipedia kost vrij weinig om te hosten. Het leeuwendeel van de inkomsten van de Wikimedia foundation gaan naar andere diensten.

https://www.saastr.com/what-is-costs-to-run-wikipedia-3m-in-hosting-107m-in-salaries/
Wikipedia kost 3 miljoen om te hosten. Ze 'doneren' 24 miljoen aan andere (externe) diensten/projecten, er gaat 100 miljoen aan personeel. Enzovoorts.
Ach dit wordt ook al 25 jaar geroepen over Linux. Kan nooit blijven bestaan, want er is niet een bedrijf dat hier z'n geld mee verdient.

Prima idee dat een stichting deze website beheert en mogelijk maakt. Stel dat er een miljardair met een winstoogmerk achter had gezeten, zouden al die mensen dan vrijwillig hun kennis, kunde en tijd inbrengen om het te maken tot wat het is? Nee, die hadden dan ook betaald moeten worden. Oplossing misschien overal reclame tussendoor? Co-creatie van artikelen met adverteerders? Een betaald abonnement zodat de co tent die je schrijft wordt aangemerkt als 'verified'?

Dat soort dingen zou echt de doodsteek zijn voor Wikipedia.
Heb jij je doodgeërgerd aan Wikipedia banners? Dat viel toch enorm goed mee. Zeker in vergelijking met de constante banners en reclame die ge op iedere andere site ziet.
Een model leert niks nieuws, een model kent alleen maar datgene wat die geleerd heeft en niks anders. Daarom is de rek er wel een beetje uit met GPT-5 en wordt het allemaal niet meer exponentioneel beter met elke nieuwe versie. Nu proberen ze dat vaak nog op te lossen door er nog meer rekenkracht achter te gooien maar dat is ook niet vol te houden.

Het is toch gewoon van de zotte dat ze straks gewoon een hele kerncentrale nodig hebben alleen maar om een AI-model te kunnen draaien.

[Reactie gewijzigd door Sicos op 16 januari 2026 08:38]

Wikipedia zou ook niks nieuws moeten bevatten. Alles wat op Wikipedia staat, moet een externe bron hebben: origineel werk is expliciet tegen de regels.
Maar ook binnen de algemene gecombineerde kennis van de wereld veranderen constant dingen. Zo dachten we ooit dat urine steriel was, de aarde plat was, de aarde het midden van het universum was, alle ziektes op te lossen waren door wat bloed eruit te laten lopen, dat er geen leven in de diepe oceaan was, en tot in de jaren 80(!) werd gedacht dat je maagzweren kon krijgen van stress of pittig eten.
Om er zo maar een paar heel willekeurig te noemen, dit zijn allemaal dingen waarvan we nu beter weten, en dit soort 'feiten' die 'veranderen' zorgen er gelukkig voor dat Wikipedia voortdurend wordt aangepast.
Grappig feitje dat van de maagzweren. Dat (blijkbaar) achterhaalde feit heb ik eind jaren 90 juist geleerd van een oudere generatie. Kan dus ook de prullenbak in :)
Op basis van 1 reactie op tweakers of ga je nu de medische literatuur erop navorsen? :+
H. pylori is een mofo. Wat heb ik daar een last van gehad als kind. Ik kronkelde in bed van de pijn. Ik ging op de wc zitten in een bepaalde houding om het te laten stoppen. Vaak kwam dat dan eigenlijk neer op minderen. Niets hielp. Gelukkig weten we nu beter.

Het is wel zo dat bepaalde kruiden het kunnen verergeren maar ze zijn niet de oorzaak. Wat betreft de NSAIDs (o.a. Ibuprofen) die kunnen het ook veroorzaken. Daar heb je maagzuurremmers voor. Die dien je in te nemen een half uur voor de NSAID. Doe je dat, dan zal je NSAID het werk kunnen doen zonder de maag te beschadigen. Wel moet je weer oppassen voor ik meen obstipatie als gevolg van teveel aan maagzuurremmers. Zie de bijsluiters; die dingen zijn tegenwoordig behoorlijk functioneel.
Er ontbreekt een linkje naar een bron in dat Wikipedia artikel. Is dit de mening van de auteur of een feit? Volgens ChatGPT is er wel een relatie tussen beide (maar geen direkte oorzaak). Dus we zullen het nooit weten.
ChatGPT geeft ook geen bron en hallucineert als een malle.

Je kan ook bijv. scholar kunnen gebruiken en dan zien dat veel recente artikelen er over gaan dat bepaalde spices (Chillies bijv.) waarschijnlijk eerder een beschermende werking hebben dan een negatieve.

Maar goed, zoeken is moeilijk en "vragen" aan ChatGPT is makkelijk.
Klopt, maar die bronnen kunnen gewoon achter een betaalmuur zitten, en dan kan ChatGPT er niet bij. Auteurs op Wikipedia hebben dat probleem niet, die kunnen gewoon verwijzen naar betaalde bronnen.

En sowieso is Wikipedia een verdraaid eind makkelijker om informatie af te halen dan PubMed of soortgelijke kanalen. Daar staat misschien wel de nieuwste info op, maar echt lekker geordend is het niet. Wetenschappelijke publicaties zijn voor velen ook gewoon bijna niet te lezen.
Voor het trainen van AI is het minstens zo belangerijk wat je trainingdataset NIET bevat. Met een paar verziekte datapunten kun je al gauw het hele trainingsproces verstoren. In dat opzicht is Wikipedia zeer nuttig, ook al bevat het "niks nieuws".
Waar jij op doelt is niet relevant; Wikipedia krijgt uiteraard elke dag nieuwe inhoud.

Origineel werk is niet hetzelfde als nieuws. Zodra er iets nieuwswaardigs gebeurt in de wereld dan is daar een bron voor, in de media (meestal vele). Dat wordt dan overgenomen naar Wikipedia als het kloppende informatie is, met het correctieproces en de moderatie van dat platform, inclusief één of meer bronnen. Van de spanningen rondom Groenland tot het overlijden van Robert Jensen tot een nieuw onderzoek over zwarte gaten. Zo krijgt Wikipedia uiteraard elke dag nieuwe content, zonder dat die regel die je linkt wordt gebroken. Dat je niet zomaar zelf aan het schrijven mag slaan, staat hier los van.

Een AI kan ook de mediabronnen direct lezen als Wikipedia niet (meer) zou bestaan of niet toegankelijk zou zijn. Maar de AI kan niet het beslissingsproces en de waarheidsvinding doen dat Wikipedia doet qua moderators, discussie, experts en crowdsourcing. Een AI die direct uit de media moet putten zal het dus vaker mis hebben terwijl Wikipedia meestal heel aardig de zin van de onzin weet te scheiden (niet perfect, maar beter dan zo ongeveer elke encyclopedie of andere bron).

Dus AI-modellen hebben best veel aan Wikipedia. En dat zal ook zo blijven gaan totdat de modellen beter zijn in het schiften van informatie en het benaderen van waarheid, zoals Wikipedia. De AI-bedrijven zouden hier ook niet voor gaan betalen als ze Wikipedia nooit meer nodig zouden hebben.

[Reactie gewijzigd door geert1 op 16 januari 2026 12:01]

Dat gaat wel meevallen, want llm's zijn een bijzonder onnaukeurige en inneficiënte methode om citaten te genereren.

Als de "ai" hype eenmaal voorbij is zullen de zoekmachines gewoon weer terugvallen op de ouderwetse copy-paste methode.
De oude google search dat hij gewoon een stukje text highlight op reddit of wikipedia en dat je dan zelf de post of het artikel aanklikt en even leest vind ik dus ook beter werken dan die hele gemini samenvatting bovenaan.
Ja inderdaad, bijna hetzelfde als de internet-hype begin deze eeuw. Die is gelukkig ook weer helemaal verdwenen 😛
De AI-hype is eerder te vergelijken met de NFT hype of de metaverse hype. Het zijn dezelfde sujets die er geld mee verdienen in elk geval.
Je bedoelt de dotcom bubbel die gigantisch hard klapte? Inderdaad goed voorbeeld, geschiedenis blijft zich herhalen.
Die bubbel barsste maar het is niet alsof we daarna weer terug zijn gegaan naar niet internet. Het is achteraf gezien eigenlijk iets te vroeg gebleken.
Veel AI-modellen zoeken zelfstandig op internet, om de meest recente data te kunnen gebruiken. Anders ben je afhankelijk van de ‘timestamp’ van het datamodel en kun je nooit het nieuws van de dag in je LLM gebruiken.
Nee de modellen gingen juist alles realtime opzoeken op wikipedia, met scrapers. Dat is nodig om de laatste informatie te krijgen. Maar de gebruiker komt dus dan minder op Wikipedia zelf. Waardoor wikipedia dan dus ook niet meer om geld kan vragen.
Juist niet. Wikipedia is gratis en advertentievrij, en leeft van donaties. Je kunt gratis alles lezen en gratis alles updaten. Wikipedia's doel is alles gratis houden. Dat instanties die nu ook al gebruik maken van wikipedia gaan betalen is juist ter ondersteuning om wikipedia levend te houden.
Een model legt linken tussen informatiebronnen (in dit geval verschillende wikipedia artikels of met erbuiten).

Wikipedia is zelf al verwerkte informatie die het wetenschappelijk domein (het onderzoek naar modellen gebaseerd op ruwe data) ook niet vervangen. Zolang wikipedia niet incestueus gevoed wordt door ai modellen maar door mensen (of systemen) die de onderwerpen beheersen, heeft ze een bestaansrecht.

[Reactie gewijzigd door Terracotta op 16 januari 2026 09:45]

Ze maken er toch wel gebruik van. Dit is altijd beter dan niks. We zullen het zien ik hoop wel dat ze blijven.
Ik denk dat dit wel meevalt, het is nu om te trainen. De vraag is sowieso hoe lang Wikipedia nog relevant is. Maar aan de andere kant, als AI Wikipedia aanhaalt in antwoorden, dan blijft de content wel nodig. Dat Wikipedia nu geld krijgt van die bedrijven dan is dat mooi meegenomen.
Je kan het ook zien dat ze door deze deals een stabiele cashflow en inkomen hebben. Een tijd terug moesten ze nog overleven van donaties van gebruikers.

Ik denk dat dit juist goed is, een ethische manier van goed gebruik van AI.
Een taalmodel kan toch niet per se kennis bevatten? Het is toch gewoon een rangschikking van woorden. De actuele kennis moet ergens vandaan worden gehaald. Het is eerder andersom denk ik, zonder Wikipedia gaan die taalmodellen nog veel meer hallucineren, om AI een beetje betrouwbaar te houden hebben ze Wikipedia wel nodig lijkt me.
Nou nee, de nieuwe informatie moet ook verzameld worden en gecontroleerd (al dan niet met discussie). En die informatie kan dan weer in de taalmodellen toegevoegd worden.
Informatie moet ook worden geupdate om actueel te blijven. Door wikipedia genoeg te steunen compenseren ze de site dus voor de verliezen, waardoor de stichting in stand kan worden gehouden. De stichting heeft immers niet meer geld nodig dan de kosten van hosten en moderatie. Het is dan alleen de vraag hoe lang mensen nog de moeite doen om wikipedia up to date te houden als vervolgens de grote AI bedrijven daarmee geld verdienen.
Het lijkt enigzins op een kwaadaardige overname. Die bedrijven gaan nu waarschijnlijk proberen eigen mensen op bepaalde posities te krijgen om de objectiviteit en het democratische bijdrage-systeem te ondermijnen. Wikipedia is een ongewenste fact-checker.
Ik dacht dat Wikipedia beschikbaar was als een torrent? Waarom gebruiken de ai bedrijven die niet gewoon, misschien achterlopende data?
Dat mogen ze ook gewoon, zoals in het artikel staat. Maar waarschijnlijk willen ze ook wat goodwill kweken.

[Reactie gewijzigd door japie06 op 16 januari 2026 09:43]

Daarnaast is Wikipedia een enorme bron van informatie. Als mensen Wikipedia niet meer direct bezoeken, drogen de inkomsten op en gaat het platform op den duur ten onder. Dat is ook nadelig voor AI-bedrijven, want zij kunnen er dan geen nieuwe informatie meer weghalen. Ik vermoed dat het voor deze bedrijven ook een vorm van 'bronbescherming' is; door een vergoeding te betalen, houden ze de Foundation overeind en stellen ze hun eigen datatoevoer veilig.
Omdat je dat maar kan blijven doen totdat Wiki er aan kapot gaat dat ze geen inkomen hebben? Dus leuke korte termijn oplossing maar niet voor lange termijn. En gelukkig denken die bedrijven dus iets verder dan de dag van morgen (niet altijd maar in dit geval blijkbaar wel)!
Hoewel AI zeker een handig hulpmiddel is gaat het zeker ook heel erg veel verpesten, je ziet het nu al:

- Ik twijfel tegenwoordig bij elk leuk filmpje of het niet AI is
- Hebben mensen zelf iets geschreven of is het uitgebraakt door AI
- Als ontwikkelaar zie ik tegenwoordig echte zooi in code die gemaakt is door AI
- Mensen nemen alles maar voor waarheid aan als het door AI is uitgepoept
- Kunnen mensen straks nog wel echt iets zelf?

Etc... etc...

[Reactie gewijzigd door Sicos op 16 januari 2026 08:27]

- Mensen nemen alles maar voor waarheid aan als het door AI is uitgepoept
Nemen de meest mensen niet al eeuwen alles aan voor waarheid wat ze lezen? Of het nu propaganda, marketing of nieuws is. Het enige verschil is dat je nu nog meer moeite moet doen om de waarheid te achterhalen. En niet iedereen kan en/of wil dat, want "ignorance is" nog altijd "bliss".

Mijn voorspelling; de kloof tussen mensen die wel de waarheid weten en die niet de waarheid weten word gewoon maar groter, maar niet dat je veel met die waarheid kan, gezien de dwanbuis op de samenleving alleen maar harder en harder word aangespannen over tijd.
Het enige verschil is dat je nu nog meer moeite moet doen om de waarheid te achterhalen.
Een ander verschil is dat het nu minder moeite kost om geloofwaardige onzin uit te kramen. Gish gallop wordt steeds makkelijker om toe te passen.

[Reactie gewijzigd door The Zep Man op 16 januari 2026 09:39]

We leven toch in een land met ongekende vrijheden, zowel historisch gezien als vergeleken met andere landen? Ik denk dat het geloof dat we onvrij zijn veel schadelijker is dan de werkelijke beperkingen van onze vrijheden. Dat is namelijk hoe we onze privileges verkwanselen: sterke instituten, gematigde politici, verdraagzaamheid etc. Wees voorzichtig met al te sterke uitspraken als dat!
"Het enige verschil"... Dat is wel een groot verschil 😃.

Je kan als samenleving mensen tools geven om dingen in vraag te stellen en dat stimuleren (onderwijs, journalistiek, geen machtsconcentratie, tijd, democratie) of je kan het ze moeilijk maken dmv de recepten van totalitaire staten zoals China/Rusland/in toenemende mate VS (gekleurd onderwijs en dan vooral geschiedenis, working poor zodat je elke moment aan het werk of moe bent en geen/schijndemocratie).

Je kan niet veel met de waarheid omdat de samenleving een dwangbuis is? In de meest vrije regio van de wereld, in één van de meest vrij tijden ooit? Het is zeker tijd om sterk te reageren tegen desinformatie en fatalisme, maar dit is niet de manier waarop, vind ik.
Ik ben het met jou eens dat het tegenwoordig tegen het vervelende aan begint te lopen dat je bij veel zaken(video's, audio, plaatjes, stemmen, nieuwsitems, quotes, etc. etc. ) moet afvragen of het echt is of niet.

Technologische vooruitgang heeft nou eenmaal als gevolg dat sommige delen in blackboxes evolueren waar weinig mensen nog verstand van hebben.Kunnen (de meeste) mensen nog het land bewerken voor voedzame producten?

Hoeveel mensen weten nog hoe Tarwe tot brood kan worden omgetoverd?

Hoeveel mensen kunnen nog programmeren in een niet Object georienteerd programmeertaal?

Hoeveel ontwikkelaars kunnen nog snel en goed programmeren of bijvb. met Powershell scripten zonder intellisense en/of Google?

Hoeveel ontwikkelaars kunnen nog een print-statement in Assembly uitleggen?

Hoeveel mensen weten en kunnen nog ijzererts omtoveren tot werkbaar ijzer of staal? (...en niet zoals in Conan Exiles ofzo)

Hoeveel mensen kunnen een game uit 1980 zoals Pac Man maken vanaf scratch met de programmeertalen die toen werden gebruikt.

Hoeveel mensen weten hoe je met een siliciumplak, UV licht, ovens en wat maskers een werkende transistor moet maken?

Als ontwikkelaar snap jij mijn punt wel, denk ik.
Misschien is het ook goed om af te vragen of het dan wel zo'n handig hulpmiddel is
Het is een goed hulpmiddel om de banken van Big Tech te spekken en hun macht in de wereld te vergroten. Een handjevol mensen wordt hier maar echt beter van. De normale mens wordt de dupe. En zwaar ook. W3 gaan die prijs op een belachelijke manier betalen. We gaan een klote tijd tegemoet als normale mensch/ mensheid.

[Reactie gewijzigd door 4acesNL op 16 januari 2026 08:53]

Ik sta redelijk kritisch tegenover LLM's en AI agents, maar het is wel iets meer dan een handjevol. Je moet goed zoeken naar de juiste toepassingen. Als engineer sta ik redelijk kritisch op de code die door AI gegenereerd wordt - het kan wel wat maar je moet het echt als een junior beschouwen die continue toezicht en begeleiding nodig heeft. Maar wat het wel echt goed kan zijn aantekeningen maken van Teams meetings. Of bestaande code analyseren en samenvatten, en zelfs doorzoekbaar maken - dit zijn de klusjes waar geen van mijn collega's op zitten te wachten maar enorm waardevol zijn voor nieuwe medewerkers. Ook voor code reviews van PR's zijn ze erg waardevol. Ook hier moet je uiteraard kritisch blijven maar veel kleine bugs worden er wel uitgefiltered, die anders waarschijnlijk tussen de naden doorgeglipt zouden zijn. Het echte werk, de samenhang en de architectuur worden dan wel door echte mensen beoordeeld.

Privé is het ook wel nuttig als je zelf de invoer aanlevert, en dan vooral voor de dingen die je anders toch niet zou doen. Gebruikersvoorwaarden doorlezen bijvoorbeeld. Een samenvatting van een LLM met een door mij opgesteld lijstje van aandachtspunten is een stuk beter te doen dan 40 pagina's aan tekst die toch niemand doorleest. Of het samenvatten van beleidsplannen van de gemeente (bijvoorbeeld voor een nieuwbouwwijk) die doorgaans ook nogal de neiging hebben om zeer veel tekst voor zeer weinig informatie te produceren.

[Reactie gewijzigd door MadEgg op 16 januari 2026 09:05]

Als het filmpje leuk is wat maakt het dan uit of het wel of niet AI is?
Dat vraag ik me wel eens af als ik of mijn vrouw van grappig filmpje naar grappig filmpje ga terwijl we eigenlijk samen een film wilde gaan kijken en we op gegeven moment zien dat het inmiddels te laat is voor die film.

Dát is (of vind ik in ieder geval) op zich het probleem van Instagram zelf, maar als de filmpjes ook nog eens AI/nep zijn dan heb ik persoonlijk het gevoel met bezigheidstherapie bezig te zijn op basis wat het systeem weet dat je grappig vindt.

Ik vraag me ook af of dat wat uitmaakt als de filmpjes grappig zijn (de spellen die ik speel zijn namelijk ook niet echt ;)).

Maar toch vraag ik me af wat de toekomst gaat brengen: zitten we straks allemaal in ons algoritme door AI-gefabriceerde filmpjes te kijken. Persoonlijk wil ik mijn tijd dan toch nuttiger besteden, maar dat is natuurlijk aan iedereen om voor zichzelf te bepalen.
Als ontwikkelaar zie ik net met AI enorme vooruitgang en veel minder zooi in code dan lageloonlanden coders....
De andere punten kan ik gerust in meegaan.
- Als het filmpje leuk is maakt het toch niet zoveel uit? Dat je twijfelt of iets écht zo gebeurd is, ok - maar of iets leuk is of niet wordt niet bepaald door AI..

- Als iets feitelijk klópt maakt het niet uit of het AI is of door mensen geschreven.

- Ja dat zeker. Vibe-coding is een drama.

- Dat deden we vóór AI ook al...

- Dat dachten we vroeger ook toen paard en wagen door auto's vervangen werden, trekschuiten door vrachtauto's en bussen, en fietsen sneller bleek te zijn dan lopen. En met de komst van boekdrukkunst, typmachines, computers, het internet et cetera.
Maar je lijkt er nu wel erg principieel in te zitten.
- Als het filmpje leuk is, is het toch best?
- Als iets goed leesbaar is, is het toch best?
- Hier heb ik onvoldoende kennis van zaken van (ik kan niet programmeren.)
- Mensen kijken ook naar boze YouTube-filmpjes, TikTok-prut, verhalen van influencers en nemen dat aan voor waarheid. Dus daar niets nieuws.
- Ja. Mensen leren werken met LLMs om zo efficiënter te zoeken.
Mijn theorie is dat het internet, of in elk geval web 2.0 (e.g. social media), eindigt in hyper-enshittification. Bots die alles overspoelen moet content en slop, en die dat zelf ook wel consumeren, wat leidt tot nog meer troep en uiteindelijk het ineenstorten van social media.
Ik denk dat dit wel een gerechtvaardigde oplossing is. Wat mij betreft mag dat ook wel wat breder getrokken worden. Wikipedia heeft ons veel geleverd en blijft dat ook doen. Modellen hebben die informatie nodig, nu, maar over 10 jaar ook.

Als ik een bijdrage lever aan wikipedia, dan lijkt het me niet meer dan logisch dat een LLM dat ook doet.
Bedoel je dat LLMs zelf artikelen gaan aanpassen en nieuwe artikelen gaan toevoegen :Y) .

Dan moet je oppassen dat Grok niet continu de pagina van Elon gaat "corrigeren".
Een LLM is een tekst generator gebaseerd op wiskundige modellen, gevoed met tekst om tot die wiskundige modellen te komen. Als je van een LLM verwacht dat het de waarheid (wat is trouwens de waarheid?) verteld of feitelijk is, dan ga je voorbij aan de aard van een LLM.
hij bedoeld een financiële bijdrage...
Voorbeeld van een "willekeurige" pagina op Wikipedia :Y)
AuteurTijsZonderH Nieuwscoördinator @basto1116 januari 2026 08:31
( ͡° ͜ʖ ͡°)
Super goed, ik doneer zelf 5 euro per maand aan Wikipedia omdat ik het zo belangrijk vind dat het beschikbaar is als redelijk betrouwbaar en democratisch opgezet medium (niet perfect, maar goed genoeg). Hopelijk gaat big tech zoveel betalen dat Wikipedia niet meer afhankelijk is van particuliere donaties.
Dat hoop ik niet, dat geeft ze teveel macht namelijk. Prima en terecht dat er nu betaald wordt maar als Wikipedia straks volledig bekostigd wordt door big tech komt dat niet ten goede aan de onafhankelijkheid.
Doe het zelf ook, maar dan een jaarlijkse bijdrage van om en nabij de 20 tot 25 euro. Als ik zie hoeveel ik op Wikipedia kijk (en keek de afgelopen ~25 jaar) en daar van geleerd heb, voelde ik mezelf verplicht om daar iets aan bij te dragen, omdat ze het zonder steun misschien niet zouden redden. Daarnaast is Wikipedia naar mijn bescheiden mening echt een uniek iets voor de mensheid.

Maar ik merk wel dat ik nu het afwissel tussen iets vragen over een onderwerp aan AI, maar die komt met een soort van 'persoonlijke' duiding en/of een eigen manier van vertellen. Werkt op zich ook prima, maar soms vind ik het ook wel fijn om op Wikipedia de volledige inhoud te kunnen zien/nalezen, vaak ook opgedeeld in hoofdstukken. Maar nu ik er zo over denk, waarschijnlijk kan ik AI wel weer dusdanig prompten of instellen dat hij de Wikipedia-artikelen gewoon bijna letterlijk overneemt en laat zien.

[Reactie gewijzigd door Tjeerd op 16 januari 2026 09:18]

Maar gaat dit Wikipedia redden? Minder bezoekers betekent minder bekendheid en minder nieuwe editors. En mede dankzij deze overeenkomst zal de grote daling van de bezoekersaantallen waarschijnlijk doorzetten.

Dit gaat de editors het idee geven dat ze niet meer iets sociaals doen, een publieke encyclopedie bijhouden, maar dat ze gereduceerd zijn tot voer voor een commerciële AI machine. Ik denk dat een behoorlijk deel daar geen zin in heeft en er mee stopt.

Dan kom je in een death spiral terecht waarin Wikipedia steeds minder relevant wordt.
Het was of betalen of een rechtszaak, blijkbaar was de verwachting dat ze die zouden kunnen verliezen en data uit een AI model halen is, voor zover ik weet, niet meer mogelijk.
Op school mocht ik niks gebruiken van wikipedia omdat het geen “betrouwbare bron” is…
Die hoor je veel, en dat is primair omdat mensen bang zijn dat de informatie daar gekleurd is doordat dat in principe ook door iedereen aangepast kan worden.

In de praktijk zie je echter dat als er echt onzin op gezet wordt, dat ook heel snel weer weg is en, als het bij herhaling teruggezet wordt, het hele artikel gewoon op slot gaat.

Maar de belangrijkste regel die ze mij altijd ingeprent hebben is dat in basis "één bron is géén bron" geldt. Als je maar één bron aanhaalt dan heb je dus niet genoeg tijd in je brononderzoek gestoken, ook al is die bron dan wél een "respectabele". Daar zijn uiteraard altijd uitzonderingen op, maar vaak zijn dat dan toch al dingen die je niet op de Wikipedia gaat vinden.
Wikipedia is ook geen bron, het is een verzameling van informatie uit andere bronnen
"De grote taalmodellen gebruiken al jaren content van Wikipedia en in principe is dat toegestaan onder de gebruikerslicentie van de encyclopedie."

@TijsZonderH Misschien een mooie toevoeging hierbij: het GPT-NL project gebruikt Wikipedia expliciet NIET omdat het vrijgegeven is met een CC-BY-SA licentie. Hun motivatie is dat het onduidelijk is wat de impact van die "Share Alike" moet zijn; "als er afgeleiden van de data openbaar gemaakt moeten worden, geldt ons model en de output ervan dan ook als afgeleiden?" Om op veilig te spelen dus geen Wikipedia.
Daarom zal dat GPT-NL dus ook 3x niks zijn.

Om te kunnen reageren moet je ingelogd zijn