DuckDuckGo introduceert filter om AI-afbeeldingen te verbergen

DuckDuckGo introduceert een nieuwe functie om door AI gegenereerde afbeeldingen uit de zoekresultaten te filteren. De functie gebruikt gecureerde datasets van onder meer uBlockOrigin om de AI-afbeeldingen uit de zoekresultaten te filteren.

DuckDuckGo AI-filterDe optie is standaard beschikbaar voor gebruikers van de zoekmachine, zo laat het bedrijf weten. Onder het tabblad Afbeeldingen kunnen gebruikers het menu 'AI-afbeeldingen' openen en kiezen of zij deze beelden willen zien of niet. Voor gebruikers die via noai.duckduckgo.com browsen, is deze functie standaard ingeschakeld.

DuckDuckGo gebruikt 'handmatig gecureerde opensource lijsten', waaronder die van de advertentieblocker uBlockOrigin. Het bedrijf erkent dat met deze aanpak niet alle AI-gegenereerde beelden gedetecteerd zullen worden.

De zoekmachine DuckDuckGo richt zich naar eigen zeggen op privacy en wil het met de functie mogelijk maken om gebruikers 'zelf te laten kiezen hoeveel AI men in zijn leven wil'. Het bedrijf maakt echter geen statement tegen het gebruik van AI. Zo introduceerde DuckDuckGo onlangs nog zelf AI-chatbots.

Door Yannick Spinner

Redacteur

18-07-2025 • 21:01

89

Submitter: nike91011

Reacties (89)

89
88
46
3
0
36
Wijzig sortering
Zie liever een filter om websites met AI content weg te filteren. Als je bijv. info over games of producten zoekt wordt je overspoeld door nutteloze automatisch gegenereerde drek.

[Reactie gewijzigd door Rogers op 18 juli 2025 21:49]

Ik vind dit fenomeen echt dystopische proporties aannemen. Ronduit ergerlijk hoe laag de informatie dichtheid is van veel sites.

Had het hier laatst tijdens lunch met collega's over en ik schrok dat jonge collega's (20-25 jaar) claimden dit niet te herkennen. "Altijd zo geweest". Oplossing: "Gewoon in ChatGPT gooien en laten samenvatten".

Opa viel van z'n stoel... De cirkel is rond. Er staan Giga Watts aan rekenkracht elkaar in stand te houden. En wij maar ploeteren voor nuttige antwoorden op vragen.

Zolang dat ploeteren het verdienmodel blijft zal dit niet veranderen denk ik.

Jammer.

Ik mis die tijd dat je via Google met een natuurkunde vraag terecht kon komen op een mega lelijke site van een of ander clubje natuurkunde docenten die vol overgave hun passie en kennis met de wereld deelden. En dat zonder cookies, tracking of advertenties. Gewoon rauwe uitwisseling van kennis.
Ik vind dit fenomeen echt dystopische proporties aannemen. Ronduit ergerlijk hoe laag de informatie dichtheid is van veel sites.
Dat heeft toch 0,0 te maken met AI? Dat is al van zolang SEO een ding is. Dus die jonge collega had gelijk. Het is altijd al zo geweest en zelfs erger.

Die mega lelijke site mis je niet, die staat ondetussen op wikipedia. Ipv dat iedereen een beetje info overal zet, staat dat nu extreem uitgebreid op wikipedia. Gewoon de rauwe uitwisseling van kennis.

Als je wat meer leerstructuur wil zijn er vandaag opties die er vroeger niet waren zoals Brilliant.org. Wat een verrijking.

Vroeger lijkt alles altijd alles beter. We vergeten gewoon de negatieve zaken. Nostalgie heet dat.

Menig opa zal nog wel van zijn stoel vallen en ergens is dat zonde van het zijn net mensen met ervaring die nieuwe technologie het beste kunnen implementeren. Enkel staan opa’s daar niet voor open. Door al dat gezaag kijkt ‘niemand’ verder dan naar de problemen terwijl het gewoon bij hoort.

Net zoals de elektrificatie van onze economie en maatschappij. Het vergt heel wat verandering. Maar zonder die (soms lastige) verandering loop je ook compleet vast. Om dan weer vingers te wijzen naar het stroomvebruik van AI ipv de echte reden problemen te benoemen en dat is een laag van seniors die niet doen wat ze moeten doe ondanks hun tonnen ervaring. Bang van verandering.
"Opa" was overdreven, omdat ik ook besef dat dit een hoog "vroeger was alles beter" gehalte zou hebben. Scherp dat je het opmerkt.

Ik schrok van het feit dat er nu generaties zijn opgegroeid met en volledig gewend zijn aan met AI geperfectioneerd en doorgeslagen SEO. Zich totaal niet bewust van dat het bestaat.

Wat niet helpt is dat het (mede door AI) enorm laagdrempelig is geworden om een vindbare website te maken. Kwaliteit van de inhoud is niet meer de hoofdreden waarom een site veel bezocht wordt. Dit is dus de normaal en een contrast met mijn ervaringen. I deal with it, maar vind het suf.

Wikipedia (fijn dat het er is) en Brilliant (idem) bevat kennis en niet altijd ervaring (hoe je iets moet doen). In die laatste categorie merk ik het grootste verschil met "vroegah".

Over acceptatie van verandering (dat is een belangrijk deel van mijn werk): mensen zijn zelden bang voor het nieuwe, echter vaker bang om iets dat bekend is te verliezen. Praatjes vullen hierin zelden gaatjes, SEO is hierin geen uitzondering.
Misschien kijk ik nu erg kort door de bocht. Maar als de informatie klopt die op een website staat. Maakt het dan uit of het door AI is geschreven of niet?

Het kan mij namelijk een worst wezen wie welke informatie op het internet schrijft, zolang de informatie maar klopt

“Ja, maar AI maakt soms fouten in de informatie”.

Klopt, maar een mens kan net zoveel fouten maken in informatie. Dus je moet toch ten alle tijden verifiëren dat wat je aan informatie ziet ook echt klopt.
Het kan mij namelijk een worst wezen wie welke informatie op het internet schrijft, zolang de informatie maar klopt
"Opa" valt zich weer een buil. |:(
(...) Dus je moet toch ten alle tijden verifiëren dat wat je aan informatie ziet ook echt klopt.
"Opa" heeft weer hoop. _/-\o_

Spreek je jezelf hier niet ongelooflijk tegen? Uitzoeken wie de informatie brengt is toch een fundamenteel concept van betrouwbaarheidsbeoordeling. De herkomst maakt het onderzoek- en toetsbaar. Je kan ook in discussie met de bron om de waarheid uit te zoeken. Als we niet meer kritisch naar de bronnen kijken snap ik dat er ruimte onstaat voor verloedering van het internet.

Even wat luchtigers: de discussie over betrouwbaarheid doet me denken aan een oude sketch, waarbij iemand een leek tips geeft voor een goede website. De leek vraagt kritisch: "Hoe weet je nu of dit een betrouwbare site is?" Waarop de 'expert' zegt: "Nou, gewoon, de site is in kleur, dus dat moet wel goed zitten". "Oja...natuurlijk".

Sorry, ironisch genoeg geen bron, maar je mag me erop aanspreken :9
Tuurlijk is de bron belangrijk.

Echter, als de informatie die er staat klopt dan maakt het toch niet uit of jantje of pietje het heeft geschreven?

Als de informatie niet klopt dan is het wel een probleem, en de bron is niet de enige manier om de informatie te verifiëren.

Daarnaast ben ik in de begin 20 dus zeker geen “Opa”. Ik ga gewoon met de tijd mee. Je houd LLM’s niet tegen. Dus om je alsmaar aan de “bron” vast te klemmen is denk ik niet helemaal correct aangezien je dat later met LLM’s echt niet meer kan doen.


En laten we eerlijk zijn, uiteindelijk verifieer je bronnen toch weer met andere bronnen. Je kan dus nooit alles met zekerheid verifiëren. Zelfs met oeroude boeken niet, omdat je nooit zeker weet of het boek in het verleden is bewerkt of dat je echt een originele kopie hebt. Informatie versnippert gewoon.

Maakt het in die zin dan nog uit of iets door AI is geschreven of niet?


Ik zeg ook niet per se dat wat ik zeg klopt, ik probeer meer andere mensen hun visie te begrijpen.

[Reactie gewijzigd door Ricco02 op 20 juli 2025 14:35]

Verifieren deden mensen ook zonder ILM's of boeken of andere experts.

Moeilijke is de grote discussie, wat is waar. Er is altijd wel iemand die iets beter weet en je komt al snel tot lagen van geleerden en wetenschappers die er ook maar een waarheid op nahouden. Zelfs op die laag kan je nog twijfelen over waarheid.

Daarom horen mensen uiteindelijk ook gewoon met elkaar te discusieren, dan wordt je wijzer. Iemand "afstraffen" omdat hij/zij iets niet zo goed wist is een raar verschijnsel. Maak elkaar wijzer en discusieer. Al dan niet met boek, internet of ILM erbij.
Maar als de informatie klopt die op een website staat. Maakt het dan uit of het door AI is geschreven of niet?
Die vraagstelling is in de praktijk niet het uitgangspunt maar het doel. Wat je hier stelt in vragende vorm is dat de inhoud belangrijker is dan de boodschapper. Echter in de praktijk gaat er van de boodschapper een mate van autoriteit uit. Elke gek kan iets beweren maar het maakt nogal een verschil als dat een vreemde is of de premier of een vooraanstaand onderzoeker in een bepaald veld. Of als het een peer-reviewed onderzoek is bijv.

Output van een LLM vertrouw ik nog minder dan de gemiddelde kroegganger als het om informatievoorziening gaat. Het heeft zeker handige toepassingen maar als ik kennis wil opdoen dan laat ik AI gegenereerde content keihard aan me voorbijgaan want het is compleet onbetrouwbaar. AI kan helemaal niet kritisch lezen en is slechts een ingewikkeld algoritme dat leuke antwoorden opratelt.
Wikipedia is natuurlijk geen rauwe uitwisseling van kennis. Er wordt daar zeker wel gefilterd op wat men wel leuke en geen leuke info vindt.

Het mooie van het internet is juist dat iedereen zijn eigen site kan maken en zo hun info kunnen delen op hun manier. Dat is wel kapot gemaakt door de FAANG jongens nadat het internet echt breed gebruikt werd door de luie consument.

Maar niets is mooier dat ik, zonder filter, op mijn eigen site dingen kan delen. Geen angst dat iemand het verwijderd want "de adverteerders zouden dit wel eens vervelend kunnen vinden" of "de aandeelhouders van visa vinden dit niets" of "druist in tegen mijn politieke-, levensovertuiging in.
Ja het grotendeels verdwijnen van forums uit zoekresultaten vind ik ook zo iets raars.
In DuckDuckGo komt zelfs reddit vaak niet naar boven als ik het niet toevoeg in de zoekopdracht. Kleine forums komen bijna helemaal niet meer langs terwijl daar toch vaak nuttige informatie stond, merkte ik ook laatst toen ik wat over de kat was het zoeken waar tot een paar jaar terug nog forums voor waren. Zullen zo ook wel langzaam uitsterven.

[Reactie gewijzigd door Rogers op 19 juli 2025 00:26]

Duck gebruikt Bing voor de resultaten. Waarschijnlijk vind Microsoft het lucratiever om je hun AI gegenereerde meuk voor te schotelen dan echte resultaten.
Duck gebruikt dacht ik ook Google als bron en voelt zelf resultaten toe.

Reddit heeft een no follow dus dit is volgens mij een ding dat Reddit zelf veroorzaakt.
Toch kom ik Reddit onderwerpen tegen als ik "reddit" toevoeg aan de zoekterm in Google. Leg mij eens uit hoe het dan wel gevonden kan worden?

{google:baseURL}search?q=%s&udm=14 haalt ook een hoop meuk weg uit de zoekpagina van Google.

[Reactie gewijzigd door Cybergamer op 19 juli 2025 22:33]

'Platformen' hebben het helaas overgenomen. Zo zullen dit soort kat-groepen of nog meer niche groepen zich tegenwoordig vinden op Facebook groepen of Subreddits.
Ik sluit me hier volledig bij aan. Veel van dit soort gegenereerde drek heeft een zeer hoog irritatie gehalte en het voegt weinig tot niets toe.

/quote

Ik mis die tijd dat je via Google met een natuurkunde vraag terecht kon komen op een mega lelijke site van een of ander clubje natuurkunde docenten die vol overgave hun passie en kennis met de wereld deelden. En dat zonder cookies, tracking of advertenties. Gewoon rauwe uitwisseling van kennis.

unquote/

Gewoon rauwe uitwisseling lees ik liever als gewoon pure uitwisseling.
Die zitten nu allemaal op Geminispace. (en nee niet de chatbot)
Kagi werkt goed om al die AI slop er uit te filteren. Maar ja, daar betaal je dan ook voor.

Het is (helaas) Google's verdienmodel. Jij zoekt wat, en je krijgt 25 pagina's AI slop waarin troep wordt aangeboden. De website hoopt op een referral bonus, en Google krijg wat voor de clicks. Het is inderdaad dystopisch hoe veel AI generated, fake vergelijkingssites en 'top 10' lijstjes er bestaan. Bovendien zijn echt 80% van de resultaten websites van 'big tech'.

Voor de mensen die het niet weten: Die top X lijstjes bevatten items die niet kwalitatief het beste zijn, maar de hoogste referral bonus verdienen. Zoek altijd een gerenommeerd journalist/reviewer.
Ik was dit nog nooit tegen gekomen tot vorige week, ik wou een zelfreinigende kattenbak kopen en als je daarop gaat zoeken bij google welke de beste zijn krijg je letterlijk tientallen zoekresultaten met lijstjes die elkaar tegenspreken en waarbij de resultaten van alle producten allemaal linken naar 1 aanbieder(bijvoorbeeld Bol of Amazon).

Misschien dat ik normaal specifieker zoek of op dingen zoek die minder populair zijn of zo maar op deze manier heeft google letterlijk geen nut meer voor dit soort zaken.
Yup. Is compleet nutteloos geworden.

Bij bv. motorfietsen heb ik "mijn" YouTubers die ik vertrouw. Maar je kattenbakken... Vergeet het maar. Misschien vind je nog een facebook-groep om het te vragen.
Ik denk dat dit snel genoeg stopt. Op het moment gebruiken mensen zoekmachines en AI door elkaar, maar de tijd van zoekmachines is binnenkort echt ten einde. Het heeft dan geen zin meer oneindig veel SEO onzin te schrijven.

Of het word nog erger, en websites proberen vindbaar te worden in AIs. Dan zouden ze vooral zo veel mogelijk tekst moeten genereren denk ik?
Eens. Ik heb vaak in artikelen dat dezelfde informatie eindeloos wordt herhaald, maar Dan anders geformuleerd alsof het nieuw is. Ik ben niet goed in ai herkennen, maar zou me niks verbazrn als dit een van de kenmerken is van iemand die tegrn ai zegt: schrijf artikel van 600 woorden over onderwerp x. Ik stoor me Dr bijzonder veel aan
Het erge is dat dit al een probleem was vóórdat LLMs bestonden. En dat kwam allemaal omdat iedereen optimaliseerde voor Google’s SEO.

Het beste voorbeeld is een pagina waar een recept op staat. Het recept is vaak maar 10-20% van de pagina. De rest is geschreven om hoog in Google’s zoekresultaten te komen.
Ik dacht al zoiets. Sommige sites hebben gelukkig wel bovenaan een link om direct naar het recept te skippen.
Ja, anders gaan mensen 'pogosticken' (snel tussen zoekresultaten springen omdat ze niet vinden wat ze zoeken), wat een zeer negatief signaal is voor Google.
interessant, waarom is dat negatief ? je zou zeggen dat naar het recept springen waarbij je alle advertenties overslaat negatiever is dan pogosticken
Kort verblijf op een website komt op Google over als een 'slechte' website, of in ieder geval niet wat de gebruiker zocht, en zal dus minder verkeer die kant op sturen bij volgende vergelijkbare zoekopdrachten.
weer wat geleerd
...werkt dit alleen als mensen tracking toestaan? Zoja, dan zou dat één van de weinige functionele aspecten van tracking zijn. :*)
Echt bloed irritant:

Eerste alinea: in dit artikel lees je de [superlatieven] om probleem X zo snel mogelijk en voorgoed op te lossen.

Mijn reactie: dat zullen we wel eens zien.

Tweede alinea: dit fantastische artikel loodst je in volgende stappen snel naar je oplossing. [Inhoudsopgave van pagina]

Mijn reactie: zucht, dit weglaten was al sneller geweest.

Derde alinea: uiteenzetting waarom het een probleem is een waarom je dit artikel snel moet lezen om er snel vanaf te komen.

Mij reactie: DUDE! Ik heb dit probleem al en wil een oplossing.

Vierde alinea: Ok, laten we snel beginnen, want je probleem lost zichzelf niet op.

Mij reactie: scrol, scrol, scrol....

Alinea's vijf t/m acht: 1.500 woorden tekst met een debiel gedetailleerde en poëtisch verwoorde driestappenplan.

Mijn reactie: uuuhm, stap 2 komt totaaaal niet overeen met de werkelijheid. Wat een tijdverspilling. Als een collega zo antwoord zou geven op mijn vraag, dan nam ik ontslag.

Alinea negen: Als je de stappen goed hebt uitgevoerd ben je nu voor altijd van je probleem af. Like, subscribe and hit that bell. De wereld is fantastisch.

Mijn reactie: masseert zijn slapen en zucht.
Bij is het alinea 5 t/m 8, waarin, in een bloemlezing staat dat hetgeen dat in alinea 1 wordt beschreven niet kan, en soms zelfs nog even beschreven waarom je dat ook niet moet willen. :)
Haha, hou op. Echt, he! Black Mirror in real life.
Dan zul je deze site vast waarderen: https://based.cooking/
Idd die zijn het irritantste. En websites die doen alsof ze een product review schrijven maar vlug duidelijk wordt dat het alleen maar gebaseerd is op de productspecificaties.

Ik las ergens een tip om artikelen van voor 2023 te zoeken, maar dat werkt dus niet voor recente onderwerpen.

[Reactie gewijzigd door Rogers op 18 juli 2025 21:54]

Voor de anderen: je kunt bij Google "before:2023" toevoegen. Maarja dat is dus binnenkort nutteloos voor de meeste dingen.
Kagi doet dit al een tijdje. Of in ieder geval, ze downranken ze. En ze hebben ook al een flinke tijd AI-labeling (en filtering, als je wil) van AI images. Daarnaast kun je ook nog eens persoonlijk sites up/downranken, blocken of pinnen.

Zeker het proberen waard!
€10/maand (unlimited searches) is mij wat te duur voor een search engine.
Maar is dat nu juist niet precies het probleem? Niet willen betalen voor iets wat wel waardevol is / kan zijn?


Geen verwijt, want zelf doe ik dat ook (nog?) niet, maar het is wel een interessant gegeven.


Wat als je daardoor snel en precies kan vinden wat je zoekt? Geen verspilling meer van tijd, geen irritatie door al die bullshit resultaten (99,99% van de tijd ondertussen). Misschien is dan die 10 euro toch helemaal niet zoveel geld.
Akkoord, maar wie zegt dat betalende abonnees niet alsnog reclame te zien krijgen? En ‘gesponsorde’ zoekresultaten? Als betalend lid van een streaming videodienst krijg ik toch nog voorstukjes te zien als een aflevering van een serie. Als Algemeen Dagblad lezer krijg ik toch nog advertenties te zien en reclames aan het begin van nieuws video’s. Daarnaast kun je je afvragen hoe redelijk het is dat zoekmachines geld verdienen terwijl de beste zoekresultaten vaak bestaan uit materiaal dat de makers gratis beschikbaar maken. Die leggen er vaak nog geld op toe.
Daar heb je een goed punt. Maar als ze dat hier zouden doen bij de zoekresultaten, dan gaan ze hun eigen doel voorbij en zullen ze snel genoeg door de mand vallen.


Bij streaming is dat uiteraard een heel ander verhaal en ook bij kranten is dat altijd al een onderdeel van de inkomsten geweest. Jammergenoeg. Er is dan ook een reden dat ik geen streamingdiensten gebruik. Waarom meer betalen en alsnog reclame krijgen? Zoveel bijzonders is er toch niet meer te zien de laatste jaren. Meer van hetzelfde, meer uitmelken.


Ook ben ik het in de basis eens met de vraag waarom zoekmachines geld moeten verdienen met materiaal dat gratis beschikbaar is. Maar een zoekmachine kost nu eenmaal geld om in de lucht te houden. Wat voor oplossing zou er dan moeten komen indien je niet wilt betalen maar ook geen advertenties e.d. wilt zien?


Het grote probleem achter dit alles is natuurlijk wel dat - met name in de VS - iedereen maar "meer meer meer" wil. Meer geld om meer producten te kopen voor minder en om maar net zo rijk te zijn als de rest. Terwijl dit een onhoudbaar concept is en je er niet gelukkiger van wordt. Overigens, ik heb ook geen oplossing voor de laatste twee vraagstukken (zoekmachine en "meer meer meer").


Heel veel gratis materiaal komt eigenlijk vanuit de hobby. Een hobby mag wat kosten. En laten we wel wezen, basis hosting bij een goede partij is zo'n 200 euro per jaar? Richting de 1200 met een beheerde VPS schat ik even snel in.


Maar het hele zoekgebeuren was zo'n 20 jaar geleden vele malen beter, met inachtneming dat er veel minder websites waren ook. Als je toen op iets zocht, waren er misschien maar 100 resultaten in plaats van 100.000 nu.
Waarom meer betalen en alsnog reclame krijgen?
Tja, omdat je als betalend abonnee alleen een kort spotje te zien krijgt aan het begin van een video, terwijl ‘gratis’ platforms zoals Plex of YouTube rustige elke 10 minuten de stream onderbreken voor een relatief korte reclame, net als de openbare zenders vaak elke 20 minuten de film onderbreken voor een reclameblok dat wel 7 minuten kan duren.

Met de NLZiet app kun je meestal de reclames gewoon doorspoelen, maar die heb ik laatst opgezegd omdat ik een internetabonnement bij Delta heb genomen. Zit tv bij, maar dan zit je wel vast aan hun krakkemikkige Delta tv app… Wat blijkt namelijk; daar kun je reclames niet doorspoelen en bijvoorbeeld even 10 seconden terug gaan, wat bij NLZiet met één druk op de knop kan, kost je daar drie knoppen. Daarom zit ik aan te denken om toch maar weer NLZiet erbij te nemen.

Ik heb er geen moeite mee dat zoekmachines wat kosten en wat verdienen, maar kom op zeg, Google verdiend 100 miljard netto per jaar. Het is een van de meest waardevolle bedrijven op de beurs. Ze mogen best wat verdienen maar het contrast met – afgezien de professionele mediabedrijven – nul bij de feitelijke, vaak deskundige, pro deo werkende makers is beschamend.
Bedankt voor je interessante info over NLZiet.

Overigens, niet inloggen bij YouTube en uBlock gebruiken doet wonderen. Maar vooal ook geen Chrome browser gebruiken helpt.

Ik ben het helemaal eens met je wat betreft het bedrag dat bij Google als winst overblijft, ik had het dan ook meer over Kagi in dat kader. Veel van de huidige problematiek zit juist bij die (veel te) grote bedrijven die zo enorm veel omzet en winst hebben. Die gedragen zich als staan ze boven de wet en komen daar nog mee weg ook (boeten staan niet in verhouding tot gemaakte winsten door hun wangedrag).
Ik ben een tijd geleden overgestapt. Family plan on de kosten wat te drukken. Goedkoop is het nog steeds niet, maar wat een verademing. Vooral al die Listicles waar geen concrete informatie in staat kom ik nu veel minder tegen.

Ondertussen gebruik ik ook vaak de translate optie vaak. De ingebouwde in Vivaldi is echt niet goed, en Google Translate voelt ook al jaren alsof het stil staat.
Dat zal niet gebeuren, want die drek is een essentieel onderdeel van het verdienmodel van die zoekmachine.

Ik gebruik nu sinds een tijdje Kagi als zoekmachine, en het is me iedere euro waard. Kagi is hoe Google in den beginne was.
Zie liever een filter om websites met AI content weg te filteren. Als je bijv. info over games of producten zoekt wordt je overspoeld door nutteloze automatisch gegenereerde drek.
Dat zou je wel eens slecht kunnen bevallen. Nog nooit een AI gegenereerde review op Tweakers gespot?
Niet alleen het internet. De tijdschriften van ‘Wetenschap in Beeld’ bijvoorbeeld staan ook vol met AI gegenereerde afbeeldingen bij historische artikelen. Zeker hun historische specials staan er vol mee.
Ty zal het eens proberen. Mss eens eens lijst zoeken voor adblock.
Het bedrijf erkent dat met deze aanpak niet alle AI-gegenereerde beelden gedetecteerd zullen worden.
Je zal ook nooit alles exact uit kunnen filteren.
Dat klopt, maar als je de bulk kan filteren, is dat al heel wat. Het is dus best lastig als een specifiek beeld zoekt en steeds overduidelijke ai-beelden krijgt (en je zoekt dat specifiek niet)

edit:
Autocorrupt

[Reactie gewijzigd door lenwar op 19 juli 2025 00:42]

Daarom is het te verwachten dat er iets op verzonnen wordt. Op een zak aardappels in de supermarkt staat vaak een code waarmee je (of de bevoegde instantie) kunt terugzoeken waar ze geteeld zijn, door wie, welk ras het is en als het moet kan in de teeltregistratie nog veel meer opgezocht worden, zoals bemesting, oorsprong van het pootgoed, gebruikte bestrijdingsmiddelen, moment van spuiten, bewaarmethode, tussenhandel, etc.

Bij websites gebruiken we authenticatie, certificaten en encryptie om er zeker van te zijn dat je communiceert met wie je denkt dat je communiceert.

Ik denk dat we ook zoiets gaan zien om de echtheid van content te bepalen. Is het niet ondertekend, zijn de bewerkingen niet verifieerbaar, de bron, de maker niet bekend en te controleren, te bevragen? Laat dan maar weg uit mijn serp (= zoekresultaten).
Goed dat ze dit toevoegen. Ik ben bang dat het echter niet lang meer zal duren voordat de ratio AI-gegenereerd staat tot echt de 0 nadert dat er weinig meer overblijft. De filters en blacklists zullen tegen die tijd niet meer werken.
De dead internet theory begon als een niet erg serieus te nemen fenomeen. Maar is dichterbij dan velen denken.
Dit laat ook weer zien waar ze voor staan. Hoop zo dat deze gasten google van de troon stoten, hoogste tijd, monopolies zijn nooit goed.
Ze hebben wel een eigen crawler maar veel resultaten komt uit de Bing zoek machine. Op termijn worden de meeste zoekmachines door AI met hoge reproductie waarde vervangen vermoed ik. Alleen vers van de pers spul wordt dan nog toegevoegd omdat AI (tot nu toe) getraind moet worden op data. Maar ook dat zal door LLMs die voortdurend van info wordt voorzien worden vervangen. Vooral omdat China en USA weinig op hebben met auteursrecht icm LLMs trainen.
Ik heb DDG nu een week geprobeerd maar kan er niet aan wennen. De resultaten zijn beduidend slechter dan Google en ik mis veel kleine dingetjes die Google gelijk laat zien zoals telefoon nummers enzo. Ik ga toch weer terug
Dat is de "prijs" die je betaald voor het skippen van Google. Maar wel dus betere privacy als uitkomst.

Ik gebruik standaard DDG maar als die het dus niet weet te vinden ga ik naar Google in privacy mode. Beetje omslachtig, maar blijft stug volhouden.
Ik gebruik ook hoofdzakelijk DDG en in een enkel geval Google. Ik heb in Firefox een custom Google toegevoegd met als opdrachtregel "http://www.google.com/search?udm=14&q=%s", zo krijg je ook bij Google alleen web-resultaten te zien en geen met AI opgeleukte resultaten.
Ik gebruik nu Brave Search. Niet geweldig, maar vind hem beter dan DDG en het is iig geen Google.
Heel goed. Dit mag overal ingevoerd worden.
Ik ben een veel gebruiker van DuckDuck en dit is al een tijdje beschikbaar.

Werkt goed.
Leuk feature (tevreden DDG gebruiker).

Maar de cruciale vraag zal blijven: kunnen de uBlock e.a. teams het bijhouden? Kunnen AI 'AI detectoren' het bijhouden? Ik vrees van niet.
Zou je dmv blockchain kunnen garanderen dat een afbeelding origineel is?
Ik zou niet weten hoe. Blockchain heeft zeer specifieke toepassingen waarin het iets toevoegt, en dat zijn er niet veel. Voor alle overige zaken is het nodeloos complex en zijn er simpelere oplossingen (of juist geen oplossingen, maar dan is blockchain dat ook niet).

Iemand maakt een foto en zet dat op het internet, of iemand produceert iets in photoshop met AI en zet dat op het internet. Hoe gaat blockchain (of welke techniek dan ook) die twee onderscheiden?
Nou, de fotocamera signeert het bestand zodat mensen de bron kunnen achterhalen. Eventuele nabewerkingen worden ook gesigneerd. Hetzelfde geldt voor het AI programma.

Als je met een camera een foto van een door AI gegenereerde afbeelding maakt wordt het wat lastiger. Wellicht kan het diepteprofiel worden opgemeten om dit te voorkomen.
Wat je beschrijft heeft niks met blockchain te maken, dat zijn 'gewoon' digitale handtekeningen.

Je noemt een foto maken van een digitale afbeelding, maar dat kan natuurlijk veel minder omslachtig: je kan digitaal gewoon een plaatje met handtekening strippen en er een eigen handtekening opplakken, dan is het plaatje 100% identiek. Als een programma een afbeelding kan signeren dan kan iemand ook gewoon de private key uit dat programma trekken om diezelfde handtekening te vervalsen op welke afbeelding dan ook (inclusief een afbeelding met een andere handtekening). Al met al zegt een handtekening niets.

Als het idee conceptueel al zou werken (zie punt 1) dan werkt het nog steeds alleen voor plaatjes van software en camera's die hieraan meedoen. En degene die hier iets aan hebben zou een service als duckduckgo zijn, niet de makers van plaatjes. Dus weinig kans dat men massaal handtekeningen gaat zetten, en zonder kritieke massa gaat dit idee ook niet werken.

[Reactie gewijzigd door bwerg op 20 juli 2025 17:50]

Er blijkt een al standaard gedefineerd te zijn voor ‘content authenticity’. Zie https://contentcredentials.org/
off-topic: Hé, daar hebben we het account van Rian van Rijbroek ;)
Kwestie van tijd totdat dit niet meer werkt, zonder watermerk of iets in de videos en foto’s..

ik kwam laatst een website tegen ulazai.com en daarop kon je al voor slechts 1 dollar een veo 3 video maken… die zijn niet van echt te onderscheiden…

[Reactie gewijzigd door ydgy op 19 juli 2025 09:06]

Op dit item kan niet meer gereageerd worden.