Nextcloud stopt met bugbountyprogramma door AI-slop

Nextcloud stopt met zijn bugbountyprogramma door het grote aantal ingezonden rapporten dat volledig is gegenereerd door AI. Inzendingen die vanaf woensdag worden ingediend, komen niet in aanmerking voor financiële beloningen.

In een e-mail, die onder meer op Privacy Guides is gedeeld, schrijft Nextcloud dat het steeds meer 'generieke AI-beveiligingsrapporten' krijgt via platforms als HackerOne. Daardoor wordt het steeds lastiger om goede rapporten te identificeren. "Ons doel is om het aantal door AI gegenereerde rapporten van lage kwaliteit te verminderen en ons te richten op wat er echt toe doet. Daarom hebben we besloten ons bugbountyprogramma per 22 april stop te zetten en geen financiële beloningen meer uit te keren voor inzendingen, ongeacht de ernst", aldus Nextcloud.

Complete onzin

Medeoprichter Jos Poortvliet laat aan Tweakers weten dat het aantal AI-gegenereerde beveiligingsrapporten de afgelopen maanden enorm is gestegen. "Het is echt snel gegaan. Engineering heeft intern aangegeven dat het echt onhoudbaar is. We zijn twintig tot dertig keer zoveel tijd kwijt aan reports als hiervoor en het is allemaal dubbel, ongeldig of echt complete onzin."

Poortvliet zegt dat het project eerst andere oplossingen heeft gezocht: "Daarbij hebben we ook gekeken naar veel andere projecten. Op een zeker moment gingen we vragen om een screenshot als bewijs om toch weer een menselijkheidscheck toe te voegen. Dan moesten gebruikers screenshots of een video van het probleem delen. Toen kregen we natuurlijk weer AI-gegenereerde screenshots."

Poortvliet hoopt op maatregelen van HackerOne

HackerOne, het platform dat Nextcloud gebruikte voor zijn bugbountyprogramma, is op de hoogte van het besluit. Poortvliet hoopt dat zulke platforms uiteindelijk maatregelen gaan nemen tegen AI-slop: "Die platforms zullen wellicht ook op zoek moeten gaan naar een oplossing. Het helpt natuurlijk ook hun businessmodel om zeep. HackerOne verdiende natuurlijk geld aan ons en nu niet meer. Maar in de tussentijd hebben we het gewoon even stopgezet. Het geld is niet het probleem, maar het behandelen van alle rapporten was niet te doen."

Nextcloud is niet het eerste opensourceproject dat worstelt met AI-slop. Eerder zette ook curl zijn bugbountyprogramma stop door het grote aantal rapporten dat was gegenereerd met AI. Tweakers schreef eerder al een achtergrondartikel over de problemen die AI-meldingen opleveren voor opensourceprojecten.

Nextcloud stock. Bron: Thomas Fuller/SOPA Images/LightRocket via Getty Images
Bron: Thomas Fuller/SOPA Images/LightRocket via Getty Images

Door Imre Himmelbauer

Redacteur

22-04-2026 • 13:03

50

Submitter: LEDfan

Reacties (50)

Sorteer op:

Weergave:

kan je geen Ai inzetten om Ai submits eruit te pikken? :+
Maar echt! Het is de omgekeerde wereld. Mensen die 20-30x meer tijd kwijt zijn door het controleren van AI troep haha. En we blijven als schapen achter die tech-bedrijven en hun fake hype aanlopen met als enige doel het vullen van hun zakken.
Het ergste is dat het mensen met kennis zijn die deze troep moeten controleren terwijl het de mensen zonder kennis zijn die ze indienen. En zo zie je waar de arbeidsmarkt straks naar toe gaat. De vakmensen sterven uit en we houden AI slop over.
De vakmensen blijven wel. Dan krijg je "artisinal code" ambachtslieden in essentie.

We maken onze kleren ook iet meer met de hand. Maar toch zijn er nog wevers en naaisters. We hebben de auto. Toch rijden er nog mensen paard. We hebben nog glasblazers, zink bewerkers en wat al niet. We hebben nog steeds mensen die voor retro home computers games maken, reverse enginering doen en wat al niet. Gewoon omdat ze het kunnen en het leuk vinden.

Wat verdwijnt wellicht is het kantoorwerk dat je "moet" doen. En dan blijft hobby en ambacht over. En dan krijg je echte vaklieden.
Echte vaklieden in hobby en ambacht zijn er dan te weinig om als maatschappij/bedrijfsleven van te kunnen profiteren. Laten we hopen dat het niet zover komt…
Waarom zou de maatschappij daar niet van profiteren? Als er vraag is komen er meer van dat soort lieden basis economie....
Nu ben ik er totaal niet zeker van dat dit überhaupt gaat gebeuren, maar als dat wel zo is, is het toch niet anders dan nu? Mijn hele kast staat vol met goedkope massaproductie glazen, want als ik elk bierglas handgeblazen liet maken, had ik geen geld meer om brood te kopen. Daarom zijn er maar een handjevol van deze ambachtslieden.
Daarom zijn er maar een handjevol van deze ambachtslieden.
Het punt is dat ze er nog wel zijn. En voor de mensen met het geld kan je nog steeds werk laten doen.

De ambacht krijgt waarde, dus is het interessant om het te leren. Programmeren word niet anders dan beeldhouwen, kunts etc.... We hebben printers uitgevonden. Maar toch is er nog schilderkunst. We hebben 3d printer, maar toch 3d printen we niet alles.

De hele geschiedenis zit vol met gevallen waar dingen die door de mens gedaan worden vervangen worden door machines en de mens iets anders gaat doen. Keer op keer op keer. De wereld veranderd gewoon en mensen gaan ook nu weer wat anders doen. Misschien wel meer aandacht voor zelfontplooiing, sport en andere persoonlijk prestaties.
Omdat je specifiek goedkope massaproductie glazen noemt als voorbeeld, kan ik het niet laten om te reageren met dezelfde link als in een vorige Tweakers artikel review: Stemacteurs vrezen einde door AI, maar markt en techniek zijn (nog) niet zover over hoe AI gaat zorgen voor een race-to-the-bottom op het gebied van werk en de arbeidsmarkt, mede omdat ik het wel een interessante en vermakelijke documentaire vond.

De documentaire en link die ik wil delen is deze: https://npo.nl/start/video/mondgeblazen-glas_1/meer-informatie
Nu gaat dit niet om bierglazen maar om wijnglazen en die zijn misschien nog wel moeilijker om deze goed met de mond te blazen, maar dat is niet zozeer het punt hier. Het punt is dat het zelfs voor Nederlandse ambachtelijke glasblazers een openbaring was dat zo'n hele serie Ikea wijnglazen gewoon wel degelijk met de mondgeblazen wordt, namelijk door alsnog hoogwaardige ambachtelijke arbeid in China, maar alsnog onder matige omstandigheden en ongetwijfeld matige lonen.

Als AI en machines dadelijk vrijwel alles ong. evengoed kunnen als wij, of op zijn minst acceptabel werk opleveren waardoor veel consumenten dat een verstandigere financiële keuze vinden, zorgt dat volgens mij op termijn voor een race-to-the-bottom en zal ook veel van het ambachtelijke werk qua status en kostprijs eronder gaan leiden.

Hiervoor zijn er op zijn minst 2 samenhangende factoren volgens mij:
#1. Het kleiner wordend kwaliteitsverschil tussen de productie van een machine en van het ambachtslied waardoor het hele goedkope automatisch geproduceerde product aantrekkelijker wordt.
#2. Het feit de machine gemiddeld of bovengemiddelde kwaliteit produceert, en je je als werknemer alleen nog maar werk kan krijgen als je nog beter presteert, oftewel (dichter in de buurt bij) een ambachtslied komt. Dat zorgt voor meer ambachtslieden, waardoor het ook minder speciaal wordt om ambachtslied te zijn qua status en vooral: er vindt ook concurrentie op prijs plaats, want het (veel) goedkopere en minder kwalitatieve product is niet heel veel slechter, plus er zijn meer mensen die het betere product kunnen leveren (je bent minder uniek)..

Oftewel: een race-to-the-bottom.

Ik denk dus dat je bij wijze van spreken in de eerste fases aan ontwikkeling die we doorgaan als redelijk welvarend burger (want West Europeaan) wel degelijk handgeblazen (bier)glazen zult kunnen kopen en dat dat handjevol ambachtslieden flink zal gaan groeien. Ik heb het niet over de uitzonderingen. de Messi's of Ronaldo's zullen er nog steeds wel zijn en die zullen ook goed verdienen. Maar de massa, die net wat minder onderscheidend produceert, zal er niet bij floreren is mijn vermoeden. De moeten namelijk wel degelijk een stuk meer concurreren met de machine en een hoop andere mensen die vechten voor baanbehoud.
Als AI zelfs een screenshot genereert, vraag ik me af of deze inzendingen niet enkel bedoeld zijn om geld te verdienen. Verder als gebruikers een prompt kunnen bedenken om bugs te zoeken en te melden. Dan kan het bedrijf dit beter zelf doen.
Dat is precies de reden, daarom worden de beloningen ook afgeschaft.
Er is niets fake aan die hype. Ik kan makkelijk veel meer doen dankzij die modellen. Je moet natuurlijk wel weten hoe je ze gebruiken moet.

Ik gebruik het voor mijn eigen werk/projecten en het werkt prachtig als je voor de top modellen betaald.

Het is zelfs goed voor de RSI om gewoon een LLM een opdracht te kunnen geven.

Het probleem is niet de LLM's het probleem is het kut karakter van veel mensen die er misbruik van maken.
Klopt deels wat je zegt, maar met hype doelt men meestal op de gigantische bedragen die erin gepompt worden en dat AI nu overal maar ingestampt moet worden, of het nu daadwerkelijk voordeel oplevert of niet. En dat staat totaal niet in verhouding tot wat we er nu uithalen.

Daarnaast is het goed je te beseffen dat er uiteindelijk maar een select groepje mensen van profiteert. En ik kan je vast verklappen dat dat groepje klein is.
Maar dat gaat niet in op het onterechte gebruik van "fake". Er is niets fake aan het product, of aan de hype.
en dat AI nu overal maar ingestampt moet worden
Je verwart high profile bedrijven zoals Microsoft met tal van bedrijven hier er gewoon heel praktisch naar kijken en er nut van hebben.
Daarnaast is het goed je te beseffen dat er uiteindelijk maar een select groepje mensen van profiteert
Dat weet ik zo zeker nog niet. Ik heb makkelijk last van RSI. voice programming e.d. was nooit een echte oplossing. Gewoon een LLM opdrachten geven wel. Ik profiteer er nu al van.

Er zijn ook vakgebieden die ik nooit de optie had om te ontwikkelen of betreden. Nu kan ik dat (voor de hobby) wel. En de dingen die ik maak profiteren anderen mogelijk weer van. Dus of de groep werkelijk zo klein gaat zijn? Ik betwijfel het. Het is wellicht niet hip, maar AI word ook gebruikt om door enorme hoeveelheden research papers heen te werken. Het is al meerdere malen vertoont dat de ene groep onderzoekers met problemen op oplossingen van andere groepen worden gewezen. Dingen die de andere groep niet als primaire doel had, maar wel als dingetje hadden opgeschreven. Mensen kunnen niet alle papers bijhouden, lezen en onthouden. LLM's zijn daar fantastisch voor. Zelfde voor material research. Medicijnen onderzoek etc etc...

En vergeet niet dat LLM's maar 1 type zijn. Er word ook aan andere AI typen gewerkt. Alles in die space heeft nu aandacht. Maar niet alles heeft evenveel media aandacht.
Maar die high-profile bedrijven zijn exact degenen die de hype aandrijven en die er miljarden instoppen. Die willen dat geld terugzien en de enige manier waarop ze dat op dit moment hopen te kunnen is door het aan alles en iedereen proberen te slijten. Totdat het niet meer kan en de geldstroom opdroogt.

Er zijn zeker uitstekende toepassingen voor AI te bedenken, maar het gros van de huidige toepassingen is dat nu niet. Maar het verlies van kennis en kunde is ook gewoon een realiteit. Zeker voor de jongere generaties die er nu mee opgroeien. Uiteindelijk is garbage in > garbage out.

Ik zie nu softwareontwikkelaars in mijn team die hun taken dankzij LLMs veel sneller afhebben. Dat is natuurlijk geweldig voor ze, want ze zijn daardoor nu ineens een stuk efficiënter wat op de korte termijn goed is voor hun carrière, of ze hebben meer tijd over voor zichzelf. Dat is leuk, totdat de werkgever, en dat is onvermijdelijk, die efficiëntie gaat verwachten. Maar dat jij nu 3 features per dag ontwikkeld en 5 bugs oplost, i.p.v. de ene die je voorheen deed, maar daar wordt jij uiteindelijk niet beter van.
Dit is wel een beetje de weg naar de dystopie.
Moderne banenmarkt is ook niet anders. Mensen fleuren hun cv op en schrijven brieven met AI en gebruiken agents/bots om maar op zoveel mogelijke vacatures te reageren. En werkgevers/recruitment gebruikt weer AI om de vele aanmeldingen per vacature te filteren.
Dat kan je ook door trekken binnen organisaties. Je stelt een lijstje met punten op en laat AI er een heel document van maken met "diepgaande" motivering/onderzoek/etc. Vervolgens gaat niemand dat document meer lezen, maar gebruikt AI om het document samen te vatten in een lijstje met punten. Hele stapels documenten die ergens staan puur om op compliance/governance/audit lijstjes een vinkje te krijgen.
"om maar op zoveel mogelijke vacatures te reageren"

Misschien moet de UWV met de WW wat anders gaan doen dan alleen een wekelijkse vacatureplicht als het nu zo makkelijk is.
De Kagi-vertaler heeft tegenwoordig zelfs ‘LinkedIn Speak’ als doel-taal:
ik ben een beetje bekend met excel
Wordt:
Proficient in leveraging Microsoft Excel to drive data-informed solutions and optimize workflow efficiencies.
Of:
Adept at utilizing Excel's analytical capabilities to transform raw data into actionable business insights.
Ik heb meelij met HR-afdelingen die CV’s/sollicitatiebrieven moeten lezen 😁
De manier waarop LLM's worden gepromoot en vervolgens ook worden gebruikt is wat mij betreft een weg naar dystopie.

Het ligt vooral aan de manieren waarop en niet aan LLM's zelf ben ik van mening. LLM's gebruiken om tegen LLM's te werken heft het wellicht weer op hoewel de kans groter is dat er alleen maar nog meer aan deze ingezette weg wordt getimmerd. :X
leven we al niet 10+ jr in een dystopie
Het probleem is dat de analyse van die A.I. net zo'n rommel is als de code analyse van de A.I. die de bugmelding doet :)
Dat komt omdat het gemaakt word door noobs met een gratis chat abbo of zo. Met de high end betaalde AI's haal je die fake zooi er zo uit. De kwaliteit van modellen scheelt enorm. Opus is geen haiku is geen chatgpt. Zitten werelden van verschil tussen. Zeker met toevoegingen als bijvoorbeeld die van augment code.

Dus de controle AI kan makkelijk beter zijn. Als die misbruikers een goede AI zouden gebruiken zouden hun rapporten ook beter zijn. Kijk naar het bericht van mozilla vanmorgen. Die hebben met Mythos 127 of zo bugs gevonden. Dus het kan kwaliteit werk opleveren. Als je weet hoe je de tool kan gebruiken en hoe programmeren werkt.
Nee, het echte probleem is dat je de AI detector kan gebruiken als training voor de AI generator, waardoor de AI generator leert om niet detecteerbare tekst te genereren.

AI detectie door AI is fundamenteel onoplosbaar.
Tuurlijk kan dat en dat word ook al gedaan. Maar dat is een minder spannende headline.
je kan gewoon 100 euro retainer vragen voor een submit, niet reviewed binnen 2 weken of een bug? dan krijg je het volledig terug, AI slop? dan 100 euro kwijt. is je probleem snel opgelost.
lijkt me een best valide optie
Waarom niet een bedrag van bv €5~€10 vragen, voor het indienen van bug, en die terugbetalen als er een goede bug-rapport is ingediend, en indien het AI-slop is, het geld doneren aan een goed doel.

Ja, het geeft een hoop rond slomp, maar als verschillende bedrijven/projecten samen een systeem opzetten, zou het misschien handelbaar kunnen worden.
Dit lijkt me inderdaad niet zo'n gek idee om op korte termijn er iets aan te doen.
Bij borg hoort er ook een behoorlijk eenduidige manier te zijn om onafhankelijk, objectief en betrouwbaar te controleren of een inzending de borg terug zal geven. Dat is bij borg tegen (verborgen) schade vaak al last, bij verschil van mening al helemaal.

In plaats van op betalen en uitbetalen te richten lijkt het eerder verstandig dat belonen los te laten. Het doel van kunnen melden is om het gezamenlijk veiliger te maken en iedereen er van kan leren, niet om er aan te verdienen of het als goedkope marketing te gebruiken. Dat is precies waarom het eigenlijk responsible disclosure heet.
Zelfs al is er een eenduidige manier. Dan nog is het lastig. Bv borg voor de sticks van minigolf. Redelijk eenduidig inderdaad: zonder schade terugbrengen. Klinkt simpel niet? Tot die man aan de bar een slechte dag heeft en schade aan de voet als schade rekent. Is gewoon gebruiksschade en compleet onredelijk maar jij gaat daar niet noodzakelijk over zeuren maar niet iedereen is zoals ik als jij. Veel van AI submitters lijken volgens mij ook in die 2e categorie te vallen.

Uiteindelijk moet HackerOne en dergelijk gewoon een AI policy hebben en handhaven (of gewoon labels toevoegen zodat duidelijk is dat submit waarschijnlijk AI is), maar ik denk dat daarvoor de markt nog te jong is om dit reeds te hebben.
Het lijkt mij dat platformen als HackerOne dit beter moeten faciliteren om zo de kwaliteit binnen hun dienstverlening hoog te houden. Bewijs van identiteit is een eerste stap. Bij voldoende AI-slop reports wordt het account geblokkeerd en is de hacker niet meer welkom op dat platform.

[Reactie gewijzigd door The Zep Man op 22 april 2026 13:17]

Op zich ben ik het daar mee eens, maar dan moet je eerst de discussie gaan voeren wat AI slop is denk ik. Als het een op het oog goede report is die ook nog een daadwerkelijke bug gevonden heeft, is het dan AI slop?

Het probleem wat hier aangekaart word is namelijk drievoud: dubbel, ongeldig of onzin.
Die derde zou je uiteraard heel makkelijk kunnen aanmerken als reden om het account in te trekken, de tweede word al lastiger aangezien dit ook voor de AI avalanche waarschijnlijk gebeurde zonder slechte intentie.

De eerste is het daadwerkelijke probleem, maar ook een die steeds groter word. Hoe ga je om met duplicates.

Ik denk dat er vooral gestreefd moet worden naar betere kwaliteit en aantoonbare effort in de validiteit van het raport.

En misschien ook gewoon hard zeggen dat AI niet zelf zaken mag indienen en dat je als eigenaar van het account verantwoordelijk bent voor wat er gerapporteerd word.
Je AI slop niet te definiëren. Je onderscheid gewoon mensen die te veel "troep" en niet te valideren rapporten in leveren van de rest die wel een echte bug melden. Dat kan je makkelijk tellen.

Het probleem is namelijk niet de LLM, het probleem is de kwaliteit van de (mis)bruikers.

Vanmorgen was er nog bericht dat mozilla met AI 100+ bugs zelf had platgeslagen. Dus aI kan meer dan slop als je weet wat je er mee doet.
Ook een beetje het issue met Open Source aan het worden, ontwikkelaars die met AI werken genereren zoveel code dat het niet meer doenlijk is het te controleren, of zelfs maar begrijpbaar is.
Niet alleen met Open Source.

Microsoft, Meta etc gebruiken ook veel AI development. Niet voor niets dat MS meer patches weer moet patchen
True, maar het ging mij erom dat Open Source berust op controleerbaarheid, die is verdwenen.
Dit gebeurt natuurlijk niet alleen in een bug bounty programma, maar ook met veel PRs bij open-source projecten waaronder Nextcloud. Gaat veel tijd naar AI contributies.
En eenzelfde probleem bij bezwaarschriften bij overheidsinstanties. Ieder bezwaarschrift wat een instantie behandelt wordt kost uiteindelijk geld. In dit geval dus kosten voor iedereen die ergens belasting betaalt. Je mag deze niet automatisch laten afhandelen.
Wellicht kunnen ze kosten voor de scan op het gebruik van AI verhalen op de ingezonde AI-bugbountymeldingen (naderhand)? En als je niet betaalt, prima, maar dan wordt je hackerone-account geblokkeerd en kan je geen inzendingen meer doen.
Moet je nagaan hoeveel energie er wel niet wordt verbruikt aan dit soort onzin. En dan heb je nog de memes, mensen die denken dat het een zoekmachine is, hele gesprekken voeren, etc. :/
Volgens mij kan je dit heel simpel oplossen door bij het aandragen van een security bug, de melder via een remote verbinding te laten tonen hoe dit uitgebuit kan worden. Neem dat op, spoel de video door naar de laatste 10 seconden en je ziet vanzelf of er daadwerkelijk een probleem was of niet.
Het grootste probleem is de Nextcloud code base.

De code is slecht en vol met regressies en loops, dat het geen wonder is dat AI er over struikelt en bugs rapporteert.

Het koste mij ooit dagen om bugs op te lossen omdat ik door veel bestanden moest loopen. En als je het dan had gevonden, geloofde de Nextcloud devs je niet omdat het veel te complex was.

Ik heb daarom de handdoek in de ring gegooid en gezegd "zoek het lekker uit joh".

Ik snap dus wel waarom ze moe worden van de AI reports. Ze kosten mega veel onderzoek werk om te controleren.
Heel eerlijk? Ik vind het een redelijk slap excuus. Wij deden vroeger ook zelf de bug bounties op werk en ook voor AI was het grotendeels slop. Veelal Indiërs die standaard tooltjes over het hele web gooien en geautomatiseerd de domste dingen inschoten (tot het niveau "publiek bestand is publiek beschikbaar"). En dan nog boos worden op een net afkeurmailtje want ze hebben echt wel geld verdiend! Begbounties noemden we die 8)7.

Tegenwoordig gebruiken we Intigriti, die filtered alle troep eruit. Scheelt enorm veel werk. En dat werk besparen levert weer geld op. Als er te veel slop komt, zou ik eerder zo'n soort oplossing verwachten dan het helemaal stopzetten. Snap dat niet elk open source project zo'n dienst kan gaan gebruiken. Verwacht ik ook echt niet. Veelal zijn het kleine groepen of zelfs individueën met weinig budget.

Maar een NextCloud, die ook gewoon geld binnen krijgt vanuit een hoop bedrijven en commerciele partners enzo en inmiddels best wel groot is, heeft echt wel meer keuzes. Begrijp me niet verkeerd, er zal ongetwijfeld veel AI slop binnen komen. Maar er zijn voor NextCloud echt wel meer opties om daarmee te dealen dan simpelweg de stekker eruit. Het voelt voor mij als AI de schuld geven van je eigen kostenbesparingen. Lekker makkelijk, omdat veel mensen die fan zijn van NextCloud en FOSS toch al anti-AI zijn en er dus graag in mee gaan dat AI weer iets kapot maakt. Terwijl ik denk dat er wel wat meer nuance in zit in dit verhaal.
Hoeveel krijgt nextcloud dan? Ik vraag me af hoeveel bedrijven die nextcloud leveren daadwerkelijk terugleveren / betalen.

Ze krijgen de laatste tijd pas veel geld binnen met als voorwaarde dat de ze veel features toevoegen ipv de basis verbeteren.

Ik ken persoonlijk 1 partij die iets teruglevert. Maar als je puur kijkt wat dat is dan heb ik daar zo mijn vraagtekens bij. Ipv hun eigen brakke backend te fixen gaan ze nextcloud aanpassen om daarmee te kunnen samenwerken.

[Reactie gewijzigd door Mellow Jack op 22 april 2026 14:57]

Het zijn er echt wel meer dan die ene. Ik heb weleens met marketing mensen van NextCloud gepraat, maar deel kun je ook op hun eigen website terugvinden. Ze krijgen via partners die NextCloud als service aanbieden, resellen, etc best wel wat binnen. NextCloud wordt inmiddels via hun partners aan duizenden organisaties geleverd waaronder wat best wel grote. De investeringen met voorwaardes voor features komen daar bovenop. En daarnaast zijn er nog wat inkomstenbronnen.

NextCloud is uiteindelijk ook gewoon een commercieel bedrijf onder een GmbH, niet een non-profit zoals we veel in de open source wereld zien. Begrijp me niet verkeerd, het is een topbedrijf die een mooi stuk software maakt. Het zijn van een commercieel bedrijf is niet per se slecht, en ik zie ze liever op deze manier geld verdienen dan data stelen zoals Big Tech doet. Maar het is echt geen kleine partij zonder budget ofzo.

[Reactie gewijzigd door Cambionn op 22 april 2026 16:25]


Om te kunnen reageren moet je ingelogd zijn