Aantal zoekopdrachten via Google in Safari daalt door gebruik van AI-chatbots

Het aantal zoekopdrachten via Google in Apple-browser Safari is afgelopen maand voor het eerst in 22 jaar gedaald, zo zegt een topman van het bedrijf. Apple kijkt ernaar om AI-diensten als Perplexity op te nemen in Safari als zoekmachines.

Apple Safari met Google-zoekmachine, 2003
Apple Safari met Google-zoekmachine, 2003

Google is sinds maart 2003 de zoekmachine in Safari en volgens topman Eddy Cue is het aantal zoekopdrachten afgelopen maand voor het eerst gedaald, schrijft The Verge op basis van een hoorzitting in de Amerikaanse rechtszaak tegen Google die ertoe kan leiden dat het bijvoorbeeld browser Chrome zal moeten afstoten. "Ik heb er slecht van geslapen", aldus Eddy Cue in de rechtszaal. De deal met Google is lucratief voor Apple: de zoekgigant betaalt 20 miljard dollar per jaar om de standaardzoekmachine te zijn in de Apple-browser.

Apple kijkt er nu naar om AI-diensten toe te voegen als zoekmachine in de browser, omdat veel gebruikers op deze manier online informatie zoeken. Apple heeft al gesprekken daarover gevoerd met ChatGPT-maker OpenAI, Claude-maker Anthropic en Perplexity. Met OpenAI heeft het al een deal voor het uitvoeren van taken binnen Apple Intelligence. Google heeft nog niet gereageerd op de openbaring.

Door Arnoud Wokke

Redacteur Tweakers

07-05-2025 • 20:36

57

Reacties (57)

57
57
47
6
0
9
Wijzig sortering

Sorteer op:

Weergave:

Ik merk zelf dat dit voor mij ook geld. Dit komt niet alleen doordat chatbots soms goede resultaten geven, maar vooral dat de resultaten van google steeds slechter worden. Te vaak staan de resultaten vol met webshops zonder dat ik iets wil kopen. Wat het beste matched staat niet meer bovenaan, soms niet eens meer op de eerste pagina.
Google had al last van SEO-scam sites die eigenlijk alleen veel ads serveren. Plus dat er een hele boel meuk omheen zit die ik niet nodig heb en inderdaad veel webshops. En flut sites als beslist.nl of pinterest. Mijn lijstje van te blokkeren domeinen in zoekresultaten werd groter en groter.
Daarnaast heeft Google gewoon zijn imago niet meer mee. Het pushen van Shorts, en op andere manieren verzieken van YouTube, slechte interfaces in apps. De eeuwig op poppende "wil je inloggen met Google"-shit. De zoekmachine zelf.
Moet toch denken aan altavista, die uiteindelijk werd verslagen door Google. Wie verslaat Google. En als het een AI wordt, wat wordt dan het verdien model? Tijdens het zoeken naar het antwoord eerst 20 sec reclame? Of vind je straks webshops tussen je antwoorden?..

Ben benieuwd
Sinds kort ben ik overgestapt op Kagi premium, ja ja, betalen voor een zoekmachine en AI Assistant.
Wat mij betreft het geld meer dan waard, je hebt toegang tot een groot scala aan verschillende AI modellen in de Assistant.
En de standaard zoekmachine heeft geen advertenties, en een feature waarmee je specifiek op categorie kunt zoeken bijv. Programming zodat ie zoekt in bekende sites voor programmeren.
Zeker het proberen waard!
Hier ook een Kagi user en tevreden. Helaas dwingt mijn werk Ecosia af waardoor ik Kagi alleen privé gebruik of op het werk via een workaround maar die onnodig veel tijd kost.
Maar verder is Kagi erg fijn! Ook de toevoeging van de AI-modellen vind ik fijn, ze moeten toch ook met de tijd mee en via Kagi zit ik niet vast aan één AI model.
Ik gebruik vooral generieke vragen, dus niet specifiek inhoudelijk voor het bedrijf, ik plak er geen code in om te vragen het te analyseren. Ik merk dat dat mij al heel erg helpt bij mijn werk, scheelt een boel zoekwerk :)
Jammer dat je er een extensie voor moet installeren. Iedere extensie is er één te veel.
Je hoeft geen extensie te installeren, ik heb Kagi als default zoekmachine in FireFox en als je een vraag eindigt met een vraagteken, dan krijg je bovenin de zoekresultaten een kort antwoord van de Assistant waar je door kunt klikken voor een uitgebreider antwoord.
De extensies zijn voornamelijk voor extra privacy, mocht je dat willen, ik gebruik ze (nog) niet.
Ik gebruik Safari. Helaas is het daarmee redelijk ingewikkeld om in te stellen.
Sterker nog, zijn er uberhaupt straks nog antwoorden te vinden op het internet.
Dankzij zoekmachines komen we op stackoverflow, reddit, tweakers waardoor we vragen stellen en antwoorden geven. Het hele verdien model van die websites wordt om zeep geholpen als ze niet meer bezocht en gevonden worden.

Ik zie best voor me dat dit langzaam maar zeker een steeds groter probleem gaat worden.
Inderdaad, veel websites bestaan door advertenties. Als een AI model 1x een hele website scrapt, en veel mensen de AI model gebruiken, genereert de gescapte website minder inkomsten.
Aan de andere kant zijn de huidige AI modellen ook niet houdbaar, in termen van kosten. Naar mijn idee zijn de prijzen op dit moment totaal niet kostendekkend. Er zal ook daar dus een verdienmodel moeten komen. Is dus wachten op de integratie van reclame in AI.
Inderdaad, er worden nu miljarden in AI gepompt, maar geen of nauwlijk directe inkomsten uit gegenereerd door alle bedrijven die AI modellen maken.
Iets als advertenties plaatsen aan het einde van de output, of betaalde/gewenste antwoorden van een bedrijf in de AI stoppen. Ik weet overigens niet of het laatste zo makkelijk gerealiseerd kan worden om AI andtwoorden zo makkelijk te veranderen dat eerst webshop A, en dan webshop B word aanbevolen.

[Reactie gewijzigd door Beeldbuis op 8 mei 2025 11:39]

Dat is een secundair effect. Dat veroorzaakte Google zelf ook al natuurlijk [zonder AI].

Het echte probleem is dat de site minder toevoer van kennis krijgt (want de vraag wordt daar niet gepost en dus zullen er ook geen antwoorden komen). Vaak zijn meerdere antwoorden nodig om de vraag verder uit te werken en 1 antwoord is niet meteen voor alle situaties afdoende.
Santford T.net PowerMod @REDSD8 mei 2025 13:34
Een AI bestaat uit een dataset en een model, het model wordt getraind op basis van data. Een bron voor die data is vaak publiekelijk en online beschikbare informatie.

Als die data, of antwoorden, niet meer online beschikbaar zijn, kunnen die modellen zich niet meer goed trainen en verwacht ik dat AI dan ook niet met juiste antwoorden kan komen.

Op het moment dat een AI geen goed antwoord geeft, zal de vraag alsnog online gesteld worden. Al thans, dat is mijn verwachting.
Het is eigenlijk ook meer een samenvatting van zoekopdrachten die je krijgt, scheelt heel veel tijd. Ik was iemand die heel veel Google search gebruikte, dat is nu echt uitzonderlijk. Daarentegen wel elke dag een aantal AI vragen over diverse uiteenlopende zaken.

Ik denk echt dat Google het de komende jaren gaat voelen...
Dat laatste twijfel ik over. Google Gemini kan heel aardig meekomen met ChatGPT, al vind ik ChatGPT echt nog wel voorlopen. En gek genoeg blijven ze voorlopen en is de rest alleen nog maar bezig met proberen om erbij te komen. Althans, dat is mijn ervaring.

Zelf merk ik dat ik toch nog wel veel Google gebruik, omdat het voor simpele zoekopdrachten sneller is. Alhoewel vandaag kon Google mij niet het antwoord geven wat ik zocht, maar had ChatGPT binnen 1 vraag precies wat ik zocht. Ik wilde weten hoe je met Python's urllib een body kon meesturen met een GET-request voor een RESTful API. Ik kwam er niet achter. Ik vroeg het even later aan ChatGPT en die legde gelijk uit dat urllib het niet kan, omdat niet alle webservers dat ondersteunen en http.client het wel ondersteunt.
Maar klopte die informatie ook?

Ik heb er bij Copilot namelijk al de grootst mogelijke onzin uit zien rollen.
Ja, het klopte zeer zeker.

Maar het klopt ook wat je zegt. Alle chatbots kunnen liegen alsof het gedrukt staat.

Onlangs zocht ik een bepaald nummer wat ik in de jaren 80's op een CD had staan. De chatbot wist wat ik bedoelde en gaf aan op welke CD het stond. Er klopte helemaal niks van. Daar attendeerde ik de chatbot op en het gaf mij ook gelijk en beloofde dat het beter zijn best zou doen. Dit proces herhaalde zich nog een keer of vijf tot ik uiteindelijk wel bij de CD uitkwam die ik bedoelde.
Met urllib kan je als het goed is gewoon data meesturen met een GET request:
req = urllib.request.Request(url, data="wat data hier", method="GET")
Wel vreemd en zeker niet RESTful, maargoed ik heb al wel meer vreemdere situaties meegemaakt dus mij verbaasd niks meer

(https://docs.python.org/3...ml#urllib.request.Request)

[Reactie gewijzigd door jaapzb op 8 mei 2025 16:07]

Ik denk ook dat we ons nu op het kantelpunt bevinden.
Ai zie ik nu dan ook echt als de spirituele opvolger van de gewone zoekmachine.
Het zou me niet verbazen dat traditionele zoekmachines nog wel de norm blijven voor het vinden van consumptie goederen en recreatie bestemmingen.
Daar is het nu al 80% op gericht.

Waar Google vroeger (tot een ruime 10 jaar geleden) een supertool was om iets op internet te vinden, zijn ze door hun gretigheid zelf de oorzaak van de vervuiling van internet.
Eerst (verdiend) dominantie verkregen, vervolgens uitgebuit met advertenties.
Daarna de mogelijkheid gegeven voor iedere flapdrol om geld te verdienen met een website om daar advertenties te tonen met minimale inspanning.
En ten slotte bewust minder gerichte zoekresultaten tonen om gebruikers meer te laten klikken op advertenties en concurrentie op zoektermen te verhogen. En dan ook nog eens de natuurlijke resultaten onder laten sneeuwen door een toename aan advertenties.

Is Ai perfect?
Nee nog lang niet, want die gebruikt ook alle onzin die op internet staat.
Met het verschil dat je nu wel steeds specifieker kan aangeven wat je wil en wat er aangepast moet worden aan het antwoord.
Hoe uitgebreider en specifieker de vraagstelling, hoe beter het antwoord.
Plus steeds beter rekening houdend met eerdere vraagstellingen en doorgegeven voorkeuren.

Volgende stop: de persoonlijke assistent.
Zelf Google Search ook verlaten op al mijn (Apple) devices. Simpelweg uit privacy overwegingen om zo min mogelijk met Google te delen. Met een paar simpele handelingen nu alles lokaal geregeld via SearXNG. :)
Thanks, ik had nog nooit van searxng gehoord, maar dat is interessant om eens op de NAS in een container te draaien.
draai het ook al een tijdje wel blij mee, maar moet zeggen dat het steeds meer chatgpt wordt als ik ga zoeken
Hoe gebruiken jullie AI chatbots op een windows PC het makkelijkst? Zoeken in Google is supermakkelijk, gewoon in de adresbalk bovenaan typen, of in Vivaldi via het snelmenu F2. Gebruiken jullie een shortcut naar de ChatGPT pagina? Via een app in Windows? Kan dit via Windows Search?
Thx, maar niet handig voor op het werk dus..
Op het werk hebben wij copilot. En soms gebruik ik die als Google alternatief. Maar soms ren ik ook weer terug naar Google zodat ik zelf informatie op waarde kan inschatten, en niet alleen wat copilot als waarheid presenteert en soms gedeeltelijk of geheel onzin is.
Als ik nieuwe paperclips nodig heb dan gewoon Google search. Voor technische vragen staat er altijd een tabje open met ChatGPT. Heeft gewoon geen zin meer om dit via welke zoekmachine dan ook te doen.
Eens ja, dat ervaar ik zelf ook. Ook al voordat de AI chat bots er kwamen werd “letterlijk” zoeken in Google steeds moeilijker. Steeds zag je meer commerciële resultaten op de eerste pagina’s verschijnen. Zo’n chatbot neemt eigenlijk steeds meer je zoekwerk uit handen
Of een top 3 met affiliate websites. Als je bijvoorbeeld zoekt naar “beste…”. Vaak allemaal websites met zelfverzonnen tests en producten gerangschikt op commissie.

Persoonlijk gebruik ik Duckduckgo voor navigational search. Af en toe een Google search met “reddit…” als ik gebruikservaringen zoek. En de rest met AI tools.
Hier precies hetzelfde.

Ik gebruik dan voornamelijk Bing omdat Google voor mij voornamelijk junk gaf, en je bent al minstens 5 minuten aan vind wat je nodig hebt.

En dan met AI is het onder de 30 seconden, plus je kan je zoek text uitbreiden.
ja dat inderdaad. makkelijke vragen kan ik soms niet meer via google beantwoorden.
Kleine sites komen eigenlijk bijna niet meer naar boven en heel flauw maar "reddit" aan mijn zoekopdracht toevoegen geeft me meestal het goede antwoorden. maar alleen reddit als source gaan gebruiken is natuurlijk niet de oplossing.
Vooral dit. In mijn geval merk ik dat code gerelateerde resultaten echt signficant slechter zijn geworden. Hoe vroeger via stackoverflow je direct een antwoord kreeg is het nu borderline onmogelijk om goed resultaat te krijgen.
De LLM's hallucineren erop vol en zijn zeker geen copy paste helaas, maar geven wel direct code met aanknopingspunten om verder te gaan.
Vind je het gek? AI is echt een verademing voor het vinden van informatie. Net voor de AI-boom was het internet het meest onbruikbare - waar vrijwel al je zoektermen waren overspoeld door websites die SEO misbruiken om hun totaal nutteloze resultaten aan te prijzen, waardoor écht waardevolle informatie werd bedolven. Nuttige posts en discussies op random fora die je nog niet kent, redelijke informatie van de auteurs zelf, producten die je echt zoekt versus meuk die het goed scoort op zoek-engines. Die waren nauwelijks te vinden nog de afgelopen tijd. Ook echt een geweldig middel als je niet op een goede (zoek)term kunt komen en een vage beschrijving je vaak naar de goede hoek al stuurt.

Daarnaast vind ik het gebruik van AI voor meuk als man-pages of MSDN artikelen echt handig. Want het is precies het tegenovergestelde van "de rest" van het internet waar je in plaats van nutteloze jip-en-janneke-vertaalde informatie vind, heb je juist weer veel te technische in-depth informatie waardoor je ook niet tot een antwoord komt, of je hebt documentatie van libraries en APIs die compleet nutteloos is door de lage kwaliteit van documentatie, zoals de vele standaard Doxygen-gegenereerde documentatie waar alleen de library-bouwer iets van snapt. Dat vat AI echt heel begrijpelijk samen met goede praktische voorbeelden - ook iets wat echt veel mist in library/API-documentatie.

Heeftie het soms bij het foute eind? Ja, zeker, maar zelfs met de huidige hallucinerende modellen is het al tig keer bruikbaarder dan ouderwetse zoekmachines.
Net voor de AI-boom was het internet het meest onbruikbare - waar vrijwel al je zoektermen waren overspoeld door websites die SEO misbruiken om hun totaal nutteloze resultaten aan te prijzen
Is toch al meer als 15 jaar zo? Altijd al een spelletje geweest om vanboven te komen. Staat los van AI timeline
Met vanboven bedoel je hoog in de zoekresultaten?
Zeker is dat al een tijd zo. Maar er zijn steeds meer flut websites die verdienen aan ads ipv je informatie te geven.
Vond het 15 jaar beter dan nu. Naar pagina 2 gaan werkte toen bijvoorbeeld nog. Ik weet niet wat google heeft gedaan, maar als je nu naar latere pagina's gaat dan krijg je echt meuk die compleet los staat van wat je zocht.
Lijkt me logisch... als je via Google (of een andere gewone zoekmachine) zocht naar een oplossing voor uw probleem, kwam je in de meeste gevallen uit op een forum of website waar exact uw probleem stond. Met honderden reacties onder waar je nergens de oplossing in kon vinden.
Dezelfde vraag in ChatGPT of andere AI: direct in duidelijk leesbare tekst het antwoord op uw vraag, geen cookies, geen pop-up's, geen reclame...
Ik gebruik Google nu vooral nog om te zoeken naar websites... of het weer, of afbeeldingen.
Gemak dient de mens en dat is waar men met AI op inspeelt, dus wel een logisch gevolg dat men voor AI kiest met dan direct een z.n. oplossing of antwoord op een vraag. Alleen, het gevaar bestaat erin dat het antwoord of de oplossing gegenereerd door AI de foute oplossing of antwoord is. Dat word dan toch klakkeloos aangenomen dus met AI kunnen mensen heel gemakkelijk gestuurd worden.

Als je zelf op zoek gaat via dan b.v. Google, dan heb je in elk geval nog de keuze om in te kunnen schatten wat wel en niet klopt. Klein voorbeeldje wat dan wel off-topic is, zoek eens via Google op of je b.v. azijn als onkruidverdelger gebruiken mag. Zowel via Chatgpt als via Google is het 1ste antwoord ja, maar ga je dan zelf verder zoeken blijkt dat dit dus in NL niet toegestaan is. Het gaat dan nu niet direct om die azijn maar wel erom dat door nog zelf verder te gaan zoeken zie je dat antwoorden niet kloppen en je op een verkeerd spoor gezet kan worden.
Klopt. In veel gevallen zijn de antwoorden gewoon overtuigend gepresenteerde clichématige onzin.
Ik denk dat Google uiteindelijk helemaal zal overstappen op een AI-zoekmachine. Ik denk zelfs dat ze wel moeten. En dat heeft zo z’n voordelen, want je krijgt snel 1 duidelijk en relevant antwoord. Maar het heeft ook een keerzijde. Je ziet minder van de achterliggende bronnen en mist soms de verschillende meningen die er zijn. Ja, die bronnen worden nog wel genoemd, maar wie van ons gaat ze straks nog echt controleren? Of wordt AI gewoon zo goed dat we het allemaal maar aannemen?
Het is alleen nog maar de vraag wat er dan klopt van dat 'ene duidelijke en relevante antwoord'. Daarvoor moet je dan echt zelf op onderzoek uitgaan, wat die hele AI-zoekopdracht overbodig maakt.
Vaak krijg ik wel bronnen die goed gezocht zijn. Ik vind het makkelijker dan zelf bronnen zoeken.
Los van het feit of het antwoord goed is: het zelf op zoek gaan en kritisch met gevonden info omgaan verdwijnt gewoon. Iets "is" dan blijkbaar omdat de AI het gezegd heeft. Omdat die info uit zijn associatief netwerk blijkt, of zelfs omdat de bouwer van de AI al dan niet doelbewust bepaalde bronnen wel/niet gebruikt.
Search engines en AI-services hebben een gezamenlijk probleem: als ze met "te bruikbare" resultaten komen maken ze zichzelf overbodig. Het zal altijd vaag blijven. Google komt met een overdaad aan resultaten waar ChatGPT hallucineert. Ze hebben allebei problemen met concreet en efficient zijn.
Ik denk dat het concept van websites ook gaat verdwijnen.

In de plaats soort van grote databanken voor MCP servers (https://github.com/modelcontextprotocol). Als je niet weet wat dat is: MCP is een soort van API endpoint dat AI kan aanspreken om data op te vragen. Is veel efficiënter dan een webpagina te bezoeken of info te scrapen.

Ik wil enkel weten hoe laat de bakker open is (door te vragen aan mijn AI assistent). Wil niet eerst een site zoeken op google en dan op de site naar beneden scrollen voor de openingsuren. En de bakker vind de doorsnee Wordpress interface al te lastig dus als zij gewoon in een dashboard van een MCP databank mooi hun data kunnen updaten (of aan hun AI assistant laten weten die dit aanpast), is die ook tevreden. Win win, behalve voor google dan.

De mooie tijd van de hobby sites en niche forums is toch allang voorbij, nu zit alles in social media en reddit.

[Reactie gewijzigd door lamaha650 op 7 mei 2025 22:55]

En wat hebben de eigenaren van websites daar precies mee te winnen? Die bakker kan je nog voorstellen, al zal die ook liever hebben dat je op de website komt en direct ziet dat er ook lekkere gebakjes in de aanbieding zijn.

Maar een Tweakers bijvoorbeeld zit er al helemaal niet op te wachten dat AI efficiënter de artikelen kan schrapen en voor eigen gewin kan inzetten.
Ik gebruik voor heel veel zoekopdrachten AI. Recepten, foto of een plant ziek is, vraag over een speler van een voetbalclub. Allemaal dingen die ik vroeger via Google deed. Die resultaten zijn daarnaast ook zo slecht geworden dat de ergenis groeit.
Ik bracht voor de tijd van LLMs een groot deel van mijn zoekopdrachten door met de juiste zoektermen vinden. Zeker als ik iets zocht waarvan ik niet de juiste termen ken. LLMs zijn veel beter in het raden van wat ik bedoel en geeft dan ook meteen veel relevante info waarmee ik weer gerichter kan zoeken.

Ook wat programmeren betreft grijp ik vaker naar LLMs dan dat ik dingen nog ga uitzoeken via google, waar je dan vaak op youtube, fora, stack overflow of framework documentatie sites terecht kwam. Als ik niet weet hoe ik iets moet implementeren vraag ik of deze dat kan doen, bekijk ik de git diff en leer ik op die manier iig 1 manier om het te doen. Vaak een verouderde of deprecated manier, en dan vraag ik om het op te waarderen naar de meer recente manier dmv MCPs etc. Toch een stuk sneller hoe je tot gerichte info komt, waarbij je voorheen een flink stuk documentatie door moet lezen voordat je bij de gewenste info komt, en vaak ook nog fragmentarisch waardoor je stukken bij elkaar moet plakken voordat je tot een eerste implementatie kan komen.

Wat ook wel merkbaar is dat Google gewoonweg niet de juiste info toont of geïndexeerd heeft, het lijkt haast wel alsof ze minder tijd en energie steken in het verbeteren van relevante zoekresultaten en meer advertenties door je strot proberen te duwen. Dat is ook hun verdien model, maar toch.

Je moet natuurlijk voorkomen dat je in een een bubbel terecht komt, maar dat is met LLM of web search natuurlijk niet anders.
Het is trouwens niet zozeer dat google slecht is geworden..
Het is meer dat het internet 99% spam is geworden, met websites die alleen maar worden gemaakt om geld te verdien met ads, en nu nog erger met alle ai-content en ai-bots.
Probeer daar maar eens een goede zoekmachine omheen te bouwen.
Google is zo slecht geworden. Ik vindt er nog maar zelden iets waar ik daadwerkelijk ook wat aan heb. En dan is chat GTP een verleidelijk alternatief. Ik heb weinig last van het hallucineren. En als ik twijfel over het antwoord. Toch nog ff Googlen. Maar dan is de zoekopdracht veel specifieker. Persoonlijk denk ik dat Google deze wedstrijd heeft verloren. Ik geef het nog een jaar of 5 en dan is Google het nieuwe Altavista.

Op dit item kan niet meer gereageerd worden.