Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Wikipedia vraagt AI-bedrijven om niet te scrapen, maar betaalde api te gebruiken

Wikipedia heeft AI-bedrijven gevraagd om niet simpelweg pagina's te scrapen, maar de betaalde api te gebruiken. Ook wil Wikipedia dat AI-chatbots bronvermeldingen toevoegen als zij informatie van Wikipedia gebruiken.

AI-bedrijven kunnen gebruikmaken van het Enterprise Platform, meldt de Wikimedia Foundation. Prijzen daarvan staan niet openbaar online en er zijn ook aangepaste versies afgestemd op wat partnerbedrijven willen.

Behalve dat AI-bedrijven zo Wikipedia kunnen ondersteunen, zou het de servers minder belasten, zegt de stichting. Bronvermelding door chatbots is ook van groot belang, vindt de stichting achter Wikipedia. "Bronvermelding betekent dat generatieve AI de menselijke bijdragen die zij gebruikt om haar output te creëren, erkent. Dit handhaaft een positieve cyclus die de menselijke bijdragen voortzet die de trainingsdata genereren waarop deze nieuwe technologieën vertrouwen. Om mensen te laten vertrouwen op informatie die op internet wordt gedeeld, moeten platforms duidelijk maken waar de informatie vandaan komt en de mogelijkheden vergroten om die bronnen te bezoeken en eraan deel te nemen. Met minder bezoeken aan Wikipedia zouden minder vrijwilligers de content kunnen laten groeien en verrijken, en zouden minder individuele donateurs dit werk kunnen ondersteunen."

De beheerders van de online encyclopedie zeiden onlangs al dat verkeer van mensen aan het afnemen is. Daarbij doen veel bots zich zoveel mogelijk voor als mensen.

Door Arnoud Wokke

Redacteur Tweakers

11-11-2025 • 11:46

89

Submitter: Tribits

Reacties (86)

Sorteer op:

Weergave:

Ben ik pessimistisch als ik denk dat AI de doodsteek van pagina's als Wikipedia is? Het verkeer keldert als een gek naar beneden, google iets en je hoeft geen webpagina meer te openen omdat AI je al direct van een antwoord voorziet. Geen verkeer/bezoekers is funest voor Wikipedia.

Maar waar haalt AI zijn antwoorden in de toekomst vandaan als er geen nieuwe content meer wordt gemaakt?
Als je iets echt uit wil zoeken ga je sowieso naar de bron. AI is hoogstens een startpunt. De details zijn door hallucinaties niet te vertrouwen.
Ja... en waar zijn die bronnen door geschreven? Er zijn ondertussen zoveel artikelen stiekem geschreven door AI dat die ook gewoon weer in de trainingsdata komt. Hallucinaties worden gewoon zeer moeilijk te identificeren als de bron ook een hallucinatie bleek te zijn.
Goeie video:
YouTube: AI Slop Is Destroying The Internet
Dat doe ik ook, de AI response is een snel gegokte antwoord imho. De kunst is om daarna de bron te vinden die het bevestigd.

Ik vind het dan ook storend dat er nu geen bron bij vermeld wordt.
AI gaat de doodsteek zijn voor allerlei content creators. Je hoeft de Google / Facebook etc. sites niet meer te verlaten om allerhande content te lezen, de originele schrijvers zien daar geen cent voor terug, adds op hun sites worden niet meer gezien etc.

AI sites als ChatGPT zijn wat mij betreft een veel grotere copyright schending dan The Pirate Bay ooit geweest is.
Ja bizar dat je daar eigenlijk maar weinig over hoort. Misschien omdat het geen één branche is zoals muziek of film, waarbij de lobby achter deze industrieën de copyright claim naar de voorgrond heeft gebracht destijds.
Het is denk ik ook deels omdat het voor reguliere mensen vrij te lezen is, waardoor het als gratis wordt beschouwd. Copyright is hier niet voor ingericht.
Tot AI straks zo ver is dat je zegt: creëer een film van 3:14, romantiseer in de film het verhaal van de Titanic en laat de hoofdrolspelers Leo DiCaprio en Kate Winslet zijn. Op basis van Wikipedia en andere bronnen maakt AI de film bijna foutloos na. En dan gaan er bij Universal belletjes rinkelen. Mits ze niet in handen zijn van hetzelfde bedrijf als dat de AI schreef..
Denk dat je gelijk hebt. Waarom zou je er uberhaupt nog iets opzetten - het wordt toch allemaal gejat en er is weinig incentive om nog naar de pagina te surfen. Merk het zelf ook hoor, kom vaak niet meer voorbij de Gemini samenvatting als ik iets google. Klik misschien nog een keer op de referentie als ik het niet helemaal vertrouw, maar dat is het dan ook.
Dit. De enige sites die ik nog echt vaak bezoek zijn sites als Reddit, Tweakers en Stack Overflow. Voor de discussies/reacties.
AI hallucineert in de toekomst gewoon alles
Waarschijnlijk zal de invoer anders gaan worden (als internet echt bijna dood is). Mogelijk dat bedrijven zelf dingen kunnen gaan toevoegen. Of dat AI dan al zo ver is dat het automatisch al kan kiezen wat belangrijk genoeg is en wat geheim moet blijven.
Klopt, maar die AI gegenereerde antwoorden bevatten veel fouten en regelmatig spreken de antwoorden elkaar volledig tegen. Ik zet er mijn vraagtekens bij.
Maar waar haalt AI zijn antwoorden in de toekomst vandaan als er geen nieuwe content meer wordt gemaakt?
Laten we hopen dat AI die content niet zelf genereert.
Je kon heel Wikipedia in 1 bestand downloaden. Waarom doen die ai boeren dat niet en hosten zelf het bestand.
Dat is lastiger dan scrapen. Ze hoeven nu maar één scraper te maken die domweg alle links die het tegen komt te volgen en met een paar weken hebben ze een kopie van het hele internet. Ze kunnen natuurlijk best de hele Wikipedia database downloaden, maar dan moeten ze weer iets inrichten om die data te beschikbaar te maken voor hun AI tijdens training en/of gebruik. Dat één keer doen is natuurlijk geen probleem, maar daarna komt de volgende site en weer de volgende, etc, en voor je het weet hebben de AI-bedrijven een dagtaak aan het bijhouden van hun dataverzameling (terwijl dat nu automatisch gaat).
vraag je toch aan de AI om die data om te vormen tot iets wat wel inleesbaar is :+
Gewoon hun eigen Wikipedia database hosten, dan kunnen ze die lekker scrapen. Hebben de Wikipedia servers er ook geen last van.
Dat kan natuurlijk, maar moeten ze dan ook datadumps van OpenStreetMap, Open Library, arXiv, talloze/alle open source projecten die bijvoorbeeld op GitHub te vinden zijn, etc etc, één voor één downloaden en op hun eigen servers zetten en verwerken? Vanuit de kant van de AI-bedrijven snap ik het dus heel goed dat ze één scraper maken die gewoon alle links volgt, in plaats van voor elke website een andere oplossing te bedenken.
Dat kan natuurlijk, maar moeten ze dan ook datadumps van OpenStreetMap, Open Library, arXiv, talloze/alle open source projecten die bijvoorbeeld op GitHub te vinden zijn, etc etc, één voor één downloaden en op hun eigen servers zetten en verwerken?
Ja. Dat heeft sowieso de voorkeur ten opzichte van de kosten van agressief scrapen af te schuiven op anderen.

[Reactie gewijzigd door The Zep Man op 11 november 2025 20:18]

Waarom "agressief"? Het staat Wikipedia vrij om die scrapers te blokkeren.
Het blokkeren van die scrapers is verrassend moelijk. Ze negeren de robots.txt, doen zich voor als normale browsers, en komen van allerlei bronnen.

Dit is waarom steeds meer en meer websites (voornamelijk git-forges, want die hebben er vooral veel last van) Anubis en tar-pits gebruiken. Anubis hebben gebruikers last van, want het vertraagt het eerste laden van de website, en tar-pits zijn een kat-en-muisspel.

Uiteindelijk wint er niemand :)
Omdat het vooralsnog goedkoper is. Want daar komt het op neer. Als Wikipedia hun policies aanpast dat AI scrapers verplicht zijn om te betalen, pas dan gaan ze wat anders doen.

Het zal mij niet verbazen als wikipedia gebruikt wordt voor wat testgevallen omdat je weet wat voor data er staat en bepaalde pagina's niet zullen veranderen.
Als Wikipedia hun policies aanpast dat AI scrapers verplicht zijn om te betalen, pas dan gaan ze wat anders doen.
Denk je? Volgens mij rippen die AI scrapers alles wat ze tegenkomen en negeren alle policies, precies de reden dat:
Daarbij doen veel bots zich zoveel mogelijk voor als mensen.
Denk je? Volgens mij rippen die AI scrapers alles wat ze tegenkomen en negeren alle policies
Ze doen het zolang ze er mee weg komen. Natuurlijk zal het ze niet meteen doen bewegen, maar zolang Wikipedia niet echt een poot heeft om op te staan wbt gebruik van de website, kunnen ze nog niks doen en met aangepaste policy kunnen ze in ieder geval bewijs verzamelen.
Daarbij doen veel bots zich zoveel mogelijk voor als mensen.
Klopt. Maar je kunt prima zien dat een bepaalde gebruiker vrijwel alle pagina's van wikipedia bezoekt. Daar hoef je geen raketwetenschapper voor te zijn. Ja ze proberen het gedrag natuurlijk over te laten komen. Maar wil je echt een mens zijn, dan mag je maar een paar pagina's bezoeken en moet je lang op 1 pagina blijven hangen. Dus nee, dat verkeer is er echt wel uit te filteren...

Verder, je kunt Wikipedia gewoon zelf hosten. Waarom die AI bouwers dat niet doen, begrijp ik ook niet. Het is zoveel sneller en efficienter...

[Reactie gewijzigd door Martinspire op 11 november 2025 18:19]

Ik dacht altijd dat er zo ontiegelijk veel geld verdiend kan worden met AI. Tenminste, dat beweren die AI-bedrijven steeds. Waarom is het dan zo ingewikkeld om leveranciers op een fatsoenlijke manier te betalen? Op te totale investeringen die ze doen heb je 't over kruimels...
Waarschijnlijk omdat Wikipedia continue veranderd?
Probleem is dat elke website weer met wat anders komt. Je wil als AI boer niet een miljoen verschillende API's of bestandsformaten moeten onderhouden. Scrapen is universeel.
Ik heb een tijdje alleen de pagina titels en links onderling gehost. Dat was al een opgave. De wikipedia dataset is groot.. heel heel erg groot.
Mwa dat valt wel mee, nog geen 200GB, 4 bluray films. Heb je niet eens "big data" oplossingen voor nodig. Kan je gewoon in een database dumpen. Als je het hebt over een grote data set zou ik beginnen zo bij 250TB, dus pak hem beet duizend keer wikipedia.

[Reactie gewijzigd door Zoijar op 11 november 2025 16:01]

Wikipedia op Kiwix (pagina's met afbeeldingen) is 111 GB. Dat is prima te doen.
Hou toch op met die term 'boeren'.
Hoezo, ze zijn toch aan het oogsten? Zaaien en schoffelen doen ze zelf niet, alleen oogsten.
Dat ze het niet gratis wilen doen snap ik, wan thet kost nogal wat servercapaciteit. Maar het hele 'Wikipedia steunen' verhaal is zo absurd.. Die hebben ondertussen honderden miljoenen op de bank staan vanuit hun constante gesmeek om geld, vele malen meer dan ze nodig hebben voor de kosten die ze als organisatie hebben, maar toch blijven ze vragen om 'gesteund' te worden.
Mooi, maar AI parasiteert nu lekker op het werk van Wikipedia. Ze scrapen hun data en gebruiken het voor zichzelf, ze worden er zelf beter van zonder er iets voor terug te doen. Diezelfde bedrijven zijn dan wél weer in staat om hun eigen infrastructuur (datacenters vol mega dure high-end chips) en stroomkosten te betalen. Je hoeft echt geen medelijden met ze te hebben en voor wat hoort wat.
En Wikepedia gebruikt ook weer de kennis van mensen die meestal niet betaald worden....

Het hele idee van copyright is bedacht om te zorgen dat het resultaat van inspanning die makkelijk over te nemen is, niet zomaar mag worden overgenomen om er vervolgens weer geld mee te verdienen.
Het mocht wel telkens weer gebruikt worden door een individu zonder daarvoor eerst weer te betalen (zo leren mensen uit boeken).
Wiki verdiend niet direct aan de content aangeleverd door vrijwilligers - dus dat zit wel goed. (Al heb ik wel bedenkingen gezien de hoogte van de salarissen...).

De AI doet dit eigenlijk ook; gebruikt gegevens zonder daaraan te verdienen [de kennis wordt niet door de AI doorverkocht] - dus de AI doet niets fout; echter de bedrijven die de AI bezitten weer wel.

Medelijden is idd absoluut onnodig; ze dienen Wikipedia te betalen voor het gebruik van die data.
En Wikepedia gebruikt ook weer de kennis van mensen die meestal niet betaald worden...
Dat zijn mensen die vrijwillig iets bijdragen.
De Scrapers pakken zonder te vragen.

Niet echt te vergelijken vind je wel?

[Reactie gewijzigd door Wannial op 11 november 2025 15:10]

Dat is wat ik ook stelde.... de scrapers [de bedrijven die AI 'bouwen' dus] zijn verkeerd bezig.

Mijn eerste zin (jouw quote) was dus ook geen kritiek op Wikepedia. Het ging er meer om dat uiteindelijk niet alleen Wikepedia wordt 'bestolen' maar vooral al die vrijwilligers (dat was idd niet duidelijk uit die zin te halen).
https://wikimediafoundation.org/annualreports/2023-2024-annual-report/

Cash: 75,808,401
Short-Term investments: 132,216,667
Jaarlijkse kosten: 169,095,380

Dus als ze dit "smeken" niet zouden doen, dan zijn ze volgend jaar failliet.
Niet geheel onbelangrijk zijn de volgende zaken uit hetzelfde rapport:
  • Salaries and benefits: 106,793,960
  • Net assets at beginning of year: 254,971,337
  • Net assets at end of year: 271,555,390
Dit betekent dus dat ze daadwerkelijk reserves opbouwen, maar ook dat een groot deel van hun uitgaven "puur" salaris is. Tuurlijk, de mensen in de stichting moeten ook gewoon kunnen leven, maar de vraag is natuurlijk hoeveel bijvoorbeeld de mensen aan de top uitbetaald krijgen. Als je alleen de bedragen voor die mensen optelt, puur kijkend naar het salaris van 2023:
  • Maryana Iskander (ED/CEO): 472629
  • Amanda Keton (GC+Sec): 383048
  • Stephen LaPorte (GC+Sec): 333919
  • Rebecca MacKinnon (VPGA): 290118
  • Jaime Villagomez (CFO): 391202
  • Selena Deckelmann (CPTO): 437941
  • Margaret Novotny (SDD): 354778
  • Denny Vrandečić (HSP): 327588
  • Joshua Minor (PM): 301320
  • Tajh Taylor (VPE): 313033
  • Lisa Seitz-Gruwell (CRO/CAO): 387568
  • Totaal: 3993144
4 miljoen van in totaal meer dan 100 miljoen aan salaris is natuurlijk niet veel, dus lijkt er wel op dat ook dat bedrag niet te gortig is.
Dat geld gaat alleen vrijwel niet niet naar het onderhoud van Wikipedia, wat je dus wel denkt bij de donatiemomenten. Zie een paar van de handige linkjes in de reacties zoals deze video: YouTube: Wikipedia Donations Exposed. The Truth.
Raar filmpje, dat niet goed weet welk punt het moet maken. Ja, je kan de content zelf wellicht een stuk goedkoper hosten (al zijn er pagina's die verrassend veel opgevraagd worden, en vergeet de AI scrapers niet), maar daarmee blijft het project niet draaien. Vrijwilligers moeten ondersteund worden, tools moeten ontwikkeld worden, project worden gerund (ook vanuit BE en NL). En koken kost geld.
Misschien is dit (wel wat ouder) een beter voorbeeld. Ik heb het linkje uit een andere reactie gehaald.

https://x.com/echetus/status/1579776106034757633

Wat je ook van het geld geven aan NGO's/Goede doelen/uitbreiding van de niet wikipedia tak van de stichting vindt, het gaat er natuurlijk om dat het onderhouden van website veel minder kost en dat ze dat zeker in de fundraising niet aangeven.
Die hebben ondertussen honderden miljoenen op de bank staan vanuit hun constante gesmeek om geld, vele malen meer dan ze nodig hebben voor de kosten die ze als organisatie hebben
Heb je daar ook daadwerkelijk bronnen voor, of is dit puur een aanname?
Iets ouder artikel maar als je google gebruikt op Wikipedia + hoe veel geld komt er aardig wat naar boven.
Grote geldstromen en commerciële tak raken aan de ziel van Wikipedia | Netkwesties Er lijkt net als bij veel van dit soort organisaties vooral heel veel geld naar "management" te gaan en niet direct naar de dingen waar het echt nodig is.

[Reactie gewijzigd door HKLM_ op 11 november 2025 11:59]

Zijn genoeg bronnen voor ja
YouTube: Wikipedia Donations Exposed. The Truth.

Vond deze video toch een eye opener en na mijn weten is Logically Answered een betrouwbare youtuber :)
Komt juist helemaal niet betrouwbaar over op mij.

Een van de eerste harde nummers genoemd in de video "300 million in the bank". Maar als je naar de https://wikimediafoundation.org/wp-content/uploads/2025/04/WMF-Annual-Report-23-24.pdf kijkt, klopt dat van geen kant.

En daarna is de video gevuld met voornamelijk "het zou kunnen dat" en "misschien is het wel zo dat".
Iemand die niet snapt wat net assets zijn denk ik... Want die 300 miljoen komt in de buurt van het net assets getal.
De 300 miljoen citeert hij ook uit iets anders, en dat klopt inderdaad niet. Wikimedia heeft dat uitstaan in investeringen. (zoals je kunt zien in je eigen link)

Wikipedia: Wikipedia:Fundraising statistics < Als we kijken naar dit document, zien we dat Wikimedia op het moment ruim 270 miljoen dollar aan bezittingen heeft. In je eigen link zie je hoe dat is verdeeld over 'geld', kortetermijn-investeringen, langetermijn-investeringen, enz. Dit getal groeit groeit historisch best rap.
De vraag is wat er onder die initiatieven valt. Want als het direct of indirect ook voor betere content op Wikipedia leid dan is het dus geen onzin.
Wie heeft het over trainingen? Dit kunnen ook concrete bijdragen zijn aan initiatieven waarin mensen tijd betaald krijgen om bestaande pagina's en nieuwe pagina's te schrijven om "racial equity" te bereiken.

En dat is echt dus ook. Zie bijv. https://meta.wikimedia.org/wiki/Knowledge_Equity_Fund

En dat is een goed iets. Bias, in welke vorm dan ook, is te eenvoudig geïntroduceerd in artikelen die weinig traffic krijgen en daarmee ook weinig auteurs.
Racial equity gaat over dat er geen verschillen meer zijn in kans op succes op basis van herkomst.

En wikipedia zou een feiten al moeten zijn, maar vaak zijn artikelen gekleurd door de auteur. Hoe meer auteurs met andere achtergronden er werken aan een artikel hoe neutraler en feiten gebaseerd het artikel wordt. Dit soort programma's dragen daar aan bij door ook mensen uit een minderheidsgroep de kans te geven bij te dragen dmv een kleine financiële bijdrage voor de onkosten (inkomstenderving bijv) of door middelen/trainingen te verschaffen.

Er is niets mis met daar geld aan uit geven.

En die kleuring in artikelen komt er doordat er dubieuze bronnen worden gebruikt of bronnen die circulair zichzelf proberen te onderbouwen. En dat soort dingen moeten opgemerkt worden door andere auteurs, die er veelal niet zijn op artikelen die maar een kleine groep mensen aangaat of die gaan over zaken die "algemeen bekend" zijn.

[Reactie gewijzigd door Caelorum op 11 november 2025 23:25]

Dus ze hebben 100. 000 euro pp uit gegeven om minder rasisme te hebben in hun bedrijf er werken er maar 285 man.

Kleuring in artikelen dus die zijn gewoon fout. Een feit is goed of fout heeft niets met kleur te maken.

Maar ze kunnen voor die 31 miljoen ook gewoon aan mij geven dan doe ik de aanname van. Personeel wel.

Waar het mij om gaat ze leuren elke. Keer voor 5 euro terwijl ze dus miljoenen winsten hebben.

Jij wringt je door allerei bochten om die 31 miljoen goed te praten. Ik zal nooit maar dan nooit geld steken ie die site laten ze eerst hun vrijwilligers eens gewoon een loon te geven.

Dus ze hadden dus ook gewoon een paar andere types aan kunnen nemen. 100.000 loon per jaar kun je 31 man aan nemen boven op je 285 man en die kun je dan 10 jaar artikelen laten checken.

Dit bedrag hebben ze dus in 1 jaar weggegooid.
Nee, jij gaat er vanuit dat het aan eigen werknemers wordt uitgegeven en binnen het bedrijf. Dit soort projecten zijn er om andere non-profits en dergelijke te ondersteunen.
The Wikimedia Foundation Knowledge Equity Fund (the Fund) is a US$4.5 million fund created by the Wikimedia Foundation in 2020, to provide grants to external organizations that support knowledge equity by addressing the racial inequities preventing access and participation in free knowledge.
External organizations. Misschien handig om eerst je eigen feiten goed op orde te hebben en echt uit te zoeken waar dat geld aan uitgegeven wordt.

En ook met feiten kan je kleuring aanbrengen. Dat heet sturing door selectief feiten te gebruiken.

[Reactie gewijzigd door Caelorum op 12 november 2025 07:56]

4.5 waar is die 31 miljoen dan gebleven.


Heb je een voorbeeld voor een feit met sturing want 1+1 is toch altijd 2?

https://www.reddit.com/r/...n_racial_equity_in/?tl=nl
Als je niet weet hoe je met feiten kan sturen dan mis je basale kennis om je in de huidige maatschappij te bewegen.

Waarom denk je anders dat er gezegdes bestaan zoals "lies, damned lies and statistics". Je kan met selectief feiten neerzetten prima beargumenteren dat de Nazis het beste voor hadden met de mensheid, maar we weten allemaal dat het niet zo is. De Sovjet Unie was daar ook zo goed in met Stalin. Om maar wat extreme voorbeelden te nemen. Dat het dan niet allemaal waterdichte is onderbouwd omdat niet alle feiten vanuit alle invalshoeken zijn aangedragen is precies mijn punt. Dit soort programma's zorgen ervoor dat die stellingen goed onderbouwd worden of uit de artikelen worden gehaald, doordat er meerdere mensen met verschillende achtergronden naar kijken.

In Rusland denken ze bijv. dat ze goed bezig zijn met de inval van een soeverein land, want ze beschermen de Russisch sprekende minderheid daar tegen het kwaadaardige NAVO dat ze constant tegenhoud uit te breiden. Dat is voor de gemiddelde Rus ook met goede feiten onderbouwd. Alleen wel behoorlijk eenzijdig en daardoor zien ze niet dat ze zelf de agressor zijn en een puinhoop maken van de levens van tientallen miljoenen mensen.
Geen enkel voorbeeld van een sturend feit, wel foute feiten zie ik. Ik zal dan wel veel geluk gehad hebben want ik beweeg me al 45+ jaar in onze maatschappij en leef nog steeds.

Als vb: Rusland leeft men onder dictatuur met propaganda dus dat zijn sowieso geen feiten maar dat is desinformatie.

[Reactie gewijzigd door porky-nl op 12 november 2025 20:09]

Desinformatie kan ook op feiten gebaseerd zijn, maar dan dusdanig geselecteerd dat je er een narratief meer kan bouwen.

Het is menseigen om van feiten een verhaal te maken. De gaten opvullen, invullen en connecties bouwen tussen feiten die er eigenlijk niet horen te zijn. Door selectief feiten te gebruiken kan je een verhaal maken die onderbouwd is, maar complete misinformatie is.

Zoals Rusland dus ook doet, naast andere technieken voor desinformatie.

En hoe zijn feiten nu ineens fout? Feiten zijn toch objectief? Ze zijn waar of niet. Dus wat is daar fout aan? Of zouden ze wellicht toch kunnen worden gebruikt om een verhaal te vertellen die fout is? ;-)
Ongeacht hoeveel geld ze hebben en wat ze ermee doen biedt de betaalde API wel een mooie kans om eindelijk die sloeberige banners helemaal uit te zetten.

AI chatbots zijn misschien niet meer te stoppen, maar dat betekent niet dat de bedrijven erachter niet hun steentje bij kunnen dragen. Ze verdienen immers ook zelf genoeg met all die abonnementen.
En een groot deel gaat niet eens naar het onderhouden van Wikipedia, maar naar andere niet relevante zaken.
Ben jij er zoeen die graag Wiki raadpleegt maar nooit lapt. tJa ik geef ze bijna ieder jaar geld, en voel me daar lekker bij. Laten we zeggen dat ik me niet opgelicht voel, en waarom jij je dat wel "voelt" is me raadsel.
Heb je een bron/basis voor je statement dat Wikipedia zwemt in het geld?
De bron is het artikel waaruit je dit haalt, niet een quote ervan.

Niet bepaald overtuigende quote bovendien, al heb je zelf geen moeite met het 'most likely' gedeelte van de tekst zie ik.
Geef het nog een paar maanden en 90% van die AI bedrijven imploderen (samen met de wereld economie, maar dat terzijde). Daarna hopelijk eindelijk iets van regulatie om deze idioterie aan banden te leggen.
Ha, ha…

En waar is dat op gebaseerd?
Op het feit dat er letterlijk biljoenen worden rondgesmeten op basis van dromen en luchtkastelen. OpenAI wil 1.6 biljoen investeren in AI infra. Hoe dan? Van wie dan? Hoe ga je dat ooit terugverdienen? Hun huidige jaaromzet is 'maar' 2,5 miljard en daar komt niet eens winst uit. Er liggen orders bij Nvidia die ze niet kunnen vervullen. Er liggen prognoses gebaseerd op datacentra die helemaal niet bestaan. Er worden datacentra gepland waar helemaal geen electriciteit of chips voor zijn.

En van de week klopte ze vrolijk aan bij de overheid met de vraag of ze een deel ervan wilde subsidiëren als het toch allemaal niet zo geweldig zou uitpakken 8)7

Je moet echt wel heel diep in de coolaid zitten als je niet ziet hoe niet houdbaar deze situatie is.
Volgens mij haal je het Nederlandse “biljoen” (= NL 1.000 miljard) en het Amerikaanse ”billion” (= NL 1 miljard) hier door elkaar.

Nergens vind ik investeringen van NL 1.600 miljard in een paar jaar; wel NL 100 miljard in 4 of 5 jaar, met backup van NVIDIA (die zo’n bedrag zeker wel kan ophoesten).
Nee hoor, het is deels wel waar. Gaat om 1.4 in infra
Ja inderdaad, je hebt gelijk. Weliswaar in een samenstelling van allerlei deel-investeringen, maar dat doet aan het totaal niet af. En volgens de commentaren die ik daar nu over heb gelezen is het zeer onduidelijk hoe dat echt gerealiseerd zou moeten worden. Dus misschien wordt het substantieel minder. Toch geloof ik op basis daarvan nog niet dat het binnenkort echt mis gaat. Minder, of misschien zelfs fors minder ja, maar echt imploderen niet. Daarvoor heeft AI ondertussen al te veel substantiële voordelen laten zien.
Noem eens wat van die voordelen? Want tot op heden is er nog geen enkel bedrijf dat AI heeft geïmplementeerd en daar een verhoging in productiviteit of winst uit heeft gehaald. De paar bedrijven die er iets over hebben losgelaten zeggen dat het ze tot nu toe alleen maar geld gekost heeft.

Op tekst vlak komt het steeds met foutieve informatie of liegt het keihard in je gezicht. Een samenhangend boek of script schrijven kun je echt vergeten.

Generatieve AI (plaatjes, video) is op het eerste gezicht indrukwekkend, maar is feitelijk gewoon zielloze slop die je nergens in de creatieve industrie moet willen toelaten. De paar echte 'films' die volledig gemaakt zijn met AI zijn echt bizar slecht.

Aan de customer service kant is het niet meer dan een veredelde chat bot.

In de productie industrie heeft het helemaal geen toegevoegde waarde, automatisering bestaat al tientallen jaren. Er nu een AI sticker op plakken gaat echt niets verbeteren.

En de paar use cases die ik kan bedenken waarbij AI een hele handige tool is kun je lokaal op een moderne computer draaien, daar is geen datacentrum van 10 miljard voor nodig.

Dus ik mis echt nog een beetje de bewezen use cases waarbij je echt zoveel rekenkracht nodig hebt dat je er meerdere kerncentrales tegenaan moet gooien.
Mooi om te zien dit.

Het is in essentie niet anders dan de noodkreten van uitgevers van met name naslagwerken (encyclopedieën), zoals die nog maar enkele decennia geleden weerklonken. Toen was het “niet eerlijk” en “gevaarlijk” dat individuen allerlei zaken die tot dan toe bijna uitsluitend in detail uitgelegd werden in hun publicaties zomaar in een gratis toegankelijke online encyclopedie op het internet konden plaatsen. En natuurlijk hadden ze tot op zekere hoogte een punt (zeker wat hun verdienmodel betreft), maar dat heet gewoon vooruitgang en met de tijd meegaan.

Hier zie ik dat als niet veel anders: Wikipedia is nu het “slachtoffer” en zal moeten leren omgaan met in meer of mindere mate op AI-gebaseerde “concurrentie”. Wen er maar vast aan dat er nog veel meer gaat veranderen.
Met daarbij wel een cruciaal verschil dat het van centrale maker, bewaker, bepalen en uitgever mét sterk verdienmodel naar een model ging van makerS, bewakerS, betalerS en een uitgever zonder verdienmodel.

Terwijl het nu juist weer de andere kant op gaat. Dat is niet hetzelfde zoals je schetst.
Grotendeels mee eens, maar doet aan de essentie niets af.

Ditmaal zullen Wikipedia en allerlei vergelijkbare online “encyclopedieën” inclusief hun gehele “ecosysteem” van supporters en gebruikers zich moeten aanpassen (“schikken”) in een omgeving waarin AI hun functie en gebruik tenminste deels overneemt.
Waarom wordt in dit soort artikelen (en reacties) meestal niet goed begrepen dat het niet om "copyrights" gaat ? Want dat is in dit geval viervoudig regelrechte onzin:
  1. er wordt niks letterlijk of opnieuw gepubliceerd;
  2. auteursrecht zegt weinig tot niks over AI-gebruik;
  3. alles op Wikipedia valt onder de Creative Commons;
  4. Wikipedia nodigt uit tot hergebruik van hun informatie.
Het enige waar iets over te zeggen valt, is dat een AI zoals ChatGPT het duidelijk(er) moet/mag gaan vermelden als een verwoording sterk of uitsluitend gebaseerd is op informatie uit Wikipedia. En het zou bedrijven als OpenAI inderdaad sieren als ze een betaalde API-connectie aanleggen, i.p.v. botweg (pun intended) 'scrapen'.
Zou Grokipedia die betalende API gebruiken, zoals Wikipedia vraagt? :+
Laat ze wet- en regelgeving maken voor die achterlijke AI scraper bots.

Je hebt er haast een dagtaak aan om die bots te weren, omdat ze zo achterlijk slecht geschreven zijn en in no-time met 1000'en telkens 1 pagina ophalen, dit dan distribueren onder de andere nodes en die gaan doodleuk alle volgens hen unieke links ook weer in parallel binnenharken.

Op het ESPEasy forum heb ik maandenlang gehad dat die AI-bots telkens weer de server onderuit trokken met soms miljoenen page requests per dag. (en soms ook DDoS-attacks)
Sinds ik actief best wel grote subnetten van AI-bots blokkeer is het een stuk rustiger geworden voor de servers.

Als ze er nog wat nuttigs mee zouden doen, zou dat tot daar aan toe zijn, maar telkens als ik weer een issue of topic voorbij zie komen waar men duidelijk eerst door een of andere AI-tool het bos is ingestuurd, is het weer eens duidelijk dat die AI's duidelijk geen zinnig iets weten te fabriceren.

Sowieso doen ze niet aan bronvermelding, dus dat gaat nog een heel gedoe worden als mijn OpenSource code opeens gebruikt is in een andere applicatie en men mij zou gaan beschuldigen van copyright- of patent-schending. Iets vergelijkbaars zie je namelijk nu al gebeuren met muziek, fotos en kunst.

Dat hele AI gebeuren gaat veel te snel voor de huidige wet- en regelgeving en eigenlijk ook voor de maatschappij om er verantwoord mee te leren omgaan.
En wat gebeurt er nu als wij een wikipedia pagina openen hoe je via scrapping data in de backoffice kan komen van een AI door er codes en triggers in te plaatsen?
Kan Cloudflare ze niet de botstopper cadeau doen ofzo?

Om te kunnen reageren moet je ingelogd zijn