Google test aparte zoekmodus die volledig is gebaseerd op AI

Google experimenteert met een AI-modus voor zijn zoekmachine. Die toont geen overzicht met 'tien blauwe linkjes' naar zoekresultaten, maar alleen samenvattingen die met AI zijn gegenereerd. De test is beschikbaar voor Google One AI Premium-abonnees.

Google zegt dat de AI-modus voor Search het mogelijk maakt om 'complexe, meervoudige vragen' te stellen aan de zoekmachine. De modus, die is gebaseerd op een aangepaste versie van Googles Gemini 2.0-model, verzamelt vervolgens informatie op basis van Googles zoekindex en genereert een samenvatting. Gebruikers kunnen vervolgens ook follow-upvragen stellen, aldus het bedrijf.

Abonnees die de test hebben ingeschakeld, kunnen de AI-modus vinden in een tabblad op Google Search. Volgens het techbedrijf is de functie bijvoorbeeld geschikt voor het beantwoorden van vragen die normaal gesproken meerdere zoekopdrachten zouden vergen. Gebruikers kunnen de AI-tool bijvoorbeeld vragen: "Wat is het verschil in slaaptracking tussen een smartwatch, smartring en trackingmat?" Het AI-model doet vervolgens meerdere zoekopdrachten naar die verschillende producten en vat het resultaat samen, zegt Google.

Met de feature lijkt Google enigszins te willen concurreren met bestaande AI-zoekmachines, zoals die van Perplexity en OpenAI's ChatGPT Search-functie. De techgigant benadrukt overigens dat het vooralsnog een beperkte test met een opt-in betreft. Bovendien zegt Robby Stein, vicepresident van het Google Search-productteam, tegen The Verge dat de AI-modus geen opmaat is voor een volledige herziening van Google Search. Het is niet duidelijk of en wanneer de AI-modus algemeen beschikbaar komt.

Google Search AI Mode
Afbeelding: Google

Door Daan van Monsjou

Nieuwsredacteur

05-03-2025 • 21:34

56

Lees meer

Reacties (56)

56
56
14
0
0
34
Wijzig sortering

Sorteer op:

Weergave:

Och ja, wat maakt het uit dat de boel door LLM's bij elkaar gehallucineerd wordt, dat de inhoud wordt samengevat van pagina's op sites die decennialang zijn gefinetuned om zoekmachines te gamen om commerciële of propagandistische redenen en niet bepaald om de waarheid te verspreiden, en dat niemand om deze technologie gevraagd heeft die in ieder fucking product wordt gepropt tot je er niet meer omheen kunt, terwijl het hele oerwouden aan CO2 de lucht in slingert tijdens het matig herkauwen van matige content.
Ik zal heel eerlijk tegen je zijn. ik gebruik ChatGPT de hele dag, zowel op mijn werk als privé. Ik doe er echt alles mee, van teksten samenvatten en herschrijven tot het uitzoeken van vraagstukken. Voorheen googelde ik, maar nu krijg ik dankzij ChatGPT veel sneller gerichte zoeken in mijn natuurlijke taal. Ik werk in de ICT en ben vaak bezig met firewalls of programmeer problemen. Voorheen eindigde ik vele klikken in Google op een pagina van StackOverflow, maar ChatGPT geeft me direct een antwoord in een vorm die ik prettig vind. Natuurlijk moet je elk antwoord nog steeds kritisch controleren, maar juist dat persoonlijke tintje (dat je zelf kan instellen) maakt het zo krachtig. Er wordt in de industrie hard gewerkt aan het Model Context Protocol, waardoor LLM straks realtime data heeft. Dan hoef ik niet meer naar deze website, maar kan ik straks aan ChatGPT vragen om het nieuws van Tweakers samen te vatten in de manier waarop ik prettig vind lezen. Daarnaast moet LLM zien alsof het een assistent is die alvast vooronderzoek heeft gedaan, en dat jij zelf aanvult. Het scheelt mij persoonlijk een hoop tijd en ik ben amper nog op Google te vinden.

[Reactie gewijzigd door Xieoxer op 5 maart 2025 22:06]

Ik moet helemaal niks, behalve Teams gebruiken, waar ik nog steeds boos over ben. En dan duwt Microsoft me ook nog eens Copilot door de strot, waardoor m'n Office-abonnement 30 euro per jaar duurder wordt, terwijl het mailtjes kan voorspellen alsof ik iemand ben die net een lobotomie heeft ondergaan. Ik zie LLM's als enigszins capabel om teksten samen te vatten, maar niet veel meer dan dat.

Er is zó ontzettend veel mis met LLM's dat ik na twee jaar vrijwel dagelijks gebruik nog steeds de hype niet begrijp. Los van de tekstsamenvattende capaciteiten, en zelfs die betwijfel ik, is het door de bank genomen een verarming van de mensheid.

Tuurlijk is het een aardig stuk gereedschap om teksten samen te vatten of om teksten te verzinnen die lijken alsof ze zijn verzonnen door mensen die creatiever zijn dan jij maar verder alle ziel daarvan missen, maar als je daar moeite mee hebt of denkt dat de mensheid daarop zit te wachten, moet je misschien een andere baan gaan zoeken.

Waar als ontwikkelaar het decennium vóór ChatGPT bestond uit Stack Overflow-antwoorden kopiëren tot je een ons woog, daarna een nieuwe vraag stellen die dan als duplicaat werd gemarkeerd (hoogstwaarschijnlijk door ondergetekende, leve Mjölnir), en vervolgens of het toch maar zelf uitzoeken, of aan een ander overlaten, of niet oplossen, waren de tien jaar daarvoor ongeveer hetzelfde maar dan met forums (DenverCoder9).

Nu vraag je het aan ChatGPT, Claude of een ander, en is het: 1. Nee, dit compileert niet. 2. Nee, dat houdt geen rekening met edgecases X, Y en Z. 3. Die property, functie, namespace of library bestaat niet. 4. Zie 2. 5. Okay, bedankt voor de inspiratie, ik typ het wel zelf.

De laatste keer dat ik aan een LLM vroeg om mijn firewall te configureren, had ik mezelf buitengesloten van de betreffende server als ik de instructies letterlijk had opgevolgd. Dus hoeveel vertrouwen denk je dat ik in jouw firewalls heb?

En dat is dus nog los van alle ecologische, ethische en economische vraagstukken eromheen. Moeten hier echt honderden miljarden in worden gepompt? Wie gaat die terugbetalen?

Of, back ontopic, als Google je niet eens meer doorstuurt naar andere sites, hoe ziet het web er over vijf jaar dan uit?

[Reactie gewijzigd door CodeCaster op 5 maart 2025 22:45]

Nu vraag je het aan ChatGPT, Claude of een ander, en is het: 1. Nee, dit compileert niet. 2. Nee, dat houdt geen rekening met edgecases X, Y en Z. 3. Die property, functie, namespace of library bestaat niet. 4. Zie 2. 5. Okay, bedankt voor de inspiratie, ik typ het wel zelf.
Wat ik altijd zo wonderlijk vind aan dit soort opmerkingen is dat het enige nuttige gebruik dat je je blijkbaar kunt voorstellen is dat een LLM honderd procent van jouw werk uit handen neemt. Of de code die eruit komt is perfect, of het is een waardeloze tool. Een middenweg is er niet. Hetzelfde geldt voor andere toepassingen.

Je moet natuurlijk niks, maar als je wilt snappen waar het nut zit moet je toch wat creatiever proberen te zijn. Probeer deze opdracht eens:
Ask me one question at a time so we can develop a thorough, step-by-step spec for this idea. Each question should build on my previous answers, and our end goal is to have a detailed specification I can hand off to a developer. Let’s do this iteratively and dig into every relevant detail. Remember, only one question at a time.

Here’s the idea:
<IDEA>
En voila, vervolgens ontdek je na wat brainstormen dat er nog veel meer edge cases aan het probleem zitten dan je al dacht. En je hoeft ze niet eens zelf in je hoofd te houden, want er komt automatisch een afvinklijstje voor je uitgerold. Nu kun je zelf je perfecte code schrijven en is je leven toch makkelijker geworden. En dat is nog maar één prompt.

[Reactie gewijzigd door DJ Henk op 6 maart 2025 07:51]

De zoveelste persoon die meent mij te moeten leren prompten, of aan te vallen op incorrecte aannames. Ik weet al dertig jaar wat ik moet intypen om software te laten doen wat ik wil, dankjewel. Prompten is een skill die je moet ontwikkelen, maar dat moest je bij Altavista en Google al, dus ga er maar van uit dat ik weet dat input matters.

Ik ontken nergens dat LLM's nut hebben, dat ze een van de vele tools zijn die je kunt inzetten, dat ze inspiratie of een klankbord kunnen bieden.

Ik zeg dat ik m'n twijfels heb op verschillende vlakken van hun ontstaan, exploitatie, gebruik en output. En al helemaal, in dit geval, het overal in stoppen van nutteloze features, om gebruik aan iedereen op te dringen.
Ik val je nergens op aan. Je schrijft letterlijk:
Er is zó ontzettend veel mis met LLM's dat ik na twee jaar vrijwel dagelijks gebruik nog steeds de hype niet begrijp.
En vervolgens ga je alleen in op samenvatten en code genereren. Ik leg je uit dat je de hype wat beter kunt begrijpen als je wat verder kijkt dan je neus lang is.
Dit 100%. Je hebt gewoon een sparringpartner die meteen op de hoogte is van waar jij mee bezig bent en op hoog niveau met je mee denkt. Sure er zitten soms fouten in, maar het helpt echt enorm.
Mijn probleem met de AI zoek machines bestaat uit vier punten:

1) Ik weet niet of het antwoord een halucinatie is of ergens op gebaseerd. Ik zou veel liever hebben dat de AI mij links geeft naar de bron informatie.

2) Het is altijd verouderd. De data waarop de AI is getraind is nooit het laatste en nieuwste. Het gevaar hiervan is dat nieuws en vernieuwing hiermee uit beeld verdwijnt en we een veel statischer internet over houden.

3) Als ik de bron pagina's waar de AI zich op baseert bezoek, dan krijgen die verkeer en mogelijk inkomsten via advertenties of omdat ik er iets koop. Een AI samenvatting geeft niks terug aan de daadwerkelijke bron van de informatie.

4) Het maakt het voor mij moeilijk tot onmogelijk om te achterhalen wie de experts zijn die de kennis hebben, en deze delen op het internet. Ik volg dat soort mensen graag direct op hun sites, social media of andere kanalen, en soms bieden ze ook goede boeken of cursussen of andere manieren om zelf meer te leren.

Het holt de hele structuur uit die nodig is om de kennis beschikbaar te hebben, houden en te blijven verbeteren, waar het internet juist geholpen heeft om informatie en kennis beter toegankelijk te maken, doet AI het tegenovergestelde.

En het kost ook nog eens veel in stroom en hardware. Ergens zullen de AI boeren zoals Google en OpenAI dat aan ons moeten terugverdienen.
Dat zijn allemaal terechte aandachtspunten. Mijn overwegingen:
1) Ik weet niet of het antwoord een halucinatie is of ergens op gebaseerd. Ik zou veel liever hebben dat de AI mij links geeft naar de bron informatie.
Zorg er dan voor dat je een app of dienst gebruik waarbij je die links ook krijgt. Voor desktop gebruik ik meestal Msty, waarbij het heel makkelijk is om door te klikken naar externe links als je aanvinkt dat hij realtime-informatie moet gebruiken. Voor meer echte zoekopdrachten gebruik ik Kagi en dan heb je gewoon een zoekmachine met een AI-samenvatting die je wel of niet over kan slaan. Allemaal heel transparant.
2) Het is altijd verouderd. De data waarop de AI is getraind is nooit het laatste en nieuwste. Het gevaar hiervan is dat nieuws en vernieuwing hiermee uit beeld verdwijnt en we een veel statischer internet over houden.
Voor zoekmachinetoepassingen moet je simpelweg geen AI gebruiken die niet op een of andere manier gekoppeld is aan een externe databron. Dat is gewoon niet waar ze voor zijn.
3) Als ik de bron pagina's waar de AI zich op baseert bezoek, dan krijgen die verkeer en mogelijk inkomsten via advertenties of omdat ik er iets koop. Een AI samenvatting geeft niks terug aan de daadwerkelijke bron van de informatie.
Bij mij krijgen die bronpagina's dat niet, want ik haat advertenties en reclame en blok het toch allemaal. Die overeenkomst waarbij aanbieders met advertenties mijn aandacht stelen in ruil voor informatie heb ik niet ondertekend en dat zal ik ook nooit doen. Het is een pervers systeem dat al stuk was lang voordat ChatGPT geboren werd en hoe eerder werk gemaakt wordt van betere modellen hoe beter.
4) Het maakt het voor mij moeilijk tot onmogelijk om te achterhalen wie de experts zijn die de kennis hebben, en deze delen op het internet. Ik volg dat soort mensen graag direct op hun sites, social media of andere kanalen, en soms bieden ze ook goede boeken of cursussen of andere manieren om zelf meer te leren.
Achterhalen waar de kennis vandaan komt, kun je door op de links waar we het hierboven over hadden te klikken. Zoals gezegd, aan een AI die niet vertelt waar hij z'n informatie vandaan heeft, heb je sowieso niks.
Het holt de hele structuur uit die nodig is om de kennis beschikbaar te hebben, houden en te blijven verbeteren, waar het internet juist geholpen heeft om informatie en kennis beter toegankelijk te maken, doet AI het tegenovergestelde.
Dat hoeft niet per se zo te zijn. Het hangt er natuurlijk vanaf wat precies je doel is als je besluit op het internet te gaan publiceren, maar je kan evengoed betogen dat AI juist wel goed is voor verspreiding ervan. Vroeger was de kans dat iemand je teksten las al vrijwel nul, tenzij je echt heel flink aan de weg ging timmeren met promotie en het bespelen van de verschillende algoritmes. Nu kun je er in ieder geval zeker van zijn dat jouw kennis, schrijfstijl, enz. opgenomen wordt in de verschillende LLMs en ook mede de output beïnvloeden.

Als je dat geen aantrekkelijk idee vindt, kun je je afvragen: ging het nu echt alleen om verspreiding van kennis en het helpen van mensen, of kwam er ook gewoon een stuk ego bij kijken?

En daar is overigens niks mis mee en ik denk ook niet dat het publiek daarvoor zal verdwijnen. LLMs vertellen je wat het gemiddelde is. Wat "men", of "het internet" in het algemeen zegt. Dat is voor ons mensen niet genoeg. Naast efficiënte dataverwerking willen we ook gewoon echte, menselijke persoonlijkheden en creativiteit zien. Zolang we nog geen echte AGI hebben is dat nog altijd een taak voor mensen. Want laat je niet van de wijs brengen door de hype: dat is echt nog mijlenver weg.
En het kost ook nog eens veel in stroom en hardware. Ergens zullen de AI boeren zoals Google en OpenAI dat aan ons moeten terugverdienen.
Dat roofkapitalisme van Google en OpenAI is een losstaand probleem en geldt voor alles wat ze doen, niet alleen voor AI. Een wereld zonder die techboeren, maar met AI, dat klinkt namelijk helemaal niet slecht.
Of, back ontopic, als Google je niet eens meer doorstuurt naar andere sites, hoe ziet het web er over vijf jaar dan uit?
Hopelijk weer uit websites of blogs van mensen die iets online zetten omdat ze ergens gepassioneerd over zijn, en niet meer vol met clickbait.

Van mij mag het huidige internet trouwens ook snel weer verdwijnen, het werd bruikbaar door Google maar mist dat het niet machinaal uitleesbaar is doordat er geen standaard is. Web3 van Berners Lee had dat moeten worden, maar dat lijkt niet van de grond te komen.

[Reactie gewijzigd door Skit3000 op 6 maart 2025 07:45]

AI nuttig maken is gewoon de nieuwe "Google-fu" die je vroeger moest hebben.
Deze zoekfunctie is niet wat iemand met jouw skill niveau nodig heeft.
De laatste keer dat ik aan een LLM vroeg om mijn firewall te configureren, had ik mezelf buitengesloten van de betreffende server als ik de instructies letterlijk had opgevolgd. Dus hoeveel vertrouwen denk je dat ik in jouw firewalls heb?
Dus je kopieert blind wat een LLM je voorstelt? Je zal toch altijd kritisch moeten zijn wat een LLM zegt...

Ik lees verkeerd , je zei al *als* je de instructies had opgevolgd... excuus!

Ik denk dat je net zoveel vertrouwen in LLM's moet hebben als elk ander persoon die je om advies vraagt ;-)

[Reactie gewijzigd door stefanhendriks op 6 maart 2025 10:25]

Ik denk dat je net zoveel vertrouwen in LLM's moet hebben als elk ander persoon die je om advies vraagt ;-)
Nee, want als ik een vraag heb over het bouwen van een huis weet ik dat ik bij een bouwvakker/aannemer moet zijn en niet bij de slager. Ik kan dus op voorhand inschatten hoe betrouwbaar het antwoord zal zijn. Bij AI heb je werkelijk geen idee. Weet hij toevallig veel over het onderwerp of hallucineert hij de boel bij elkaar?
goed punt; wie je vraagt is zeker een goede. Al is de grote belofte dat een AI straks alles kan vervangen. Die voegt alle 'ervaringen' bij elkaar. Op dit moment zou ik de adviezen allemaal met grote korrels zout nemen.
Nu vraag je het aan ChatGPT, Claude of een ander, en is het: 1. Nee, dit compileert niet. 2. Nee, dat houdt geen rekening met edgecases X, Y en Z. 3. Die property, functie, namespace of library bestaat niet. 4. Zie 2. 5. Okay, bedankt voor de inspiratie, ik typ het wel zelf.
Dan moet je van te voren aangeven dat hij daar wel rekening mee moet houden... dit soort zaken lijken maar bar weinig mensen echt te weten

Zelfde bijvoorbeeld door van te voren aan te geven niet met alles akkoort te gaan of alles te geloven wat de gebruiker hem voorschoteld

Met die kennis, die van een AI en die van jezelf vind ik AI's echt super handig.. als je echter gaat denken dat ze alles voor je gaan doen zonder enige moeite zelf.. ja dat is dus zeker niet zo
Als iedereen op die manier Tweakers begint te lezen, zal de stekker er natuurlijk heel snel uit zijn. Net als elke andere site. Benieuwd waar de content dan vandaan komt.
Ik weet wel waar die vandaan gaat komen. Van de overgebleven sites die volledig door AI worden gemaakt (zijn er al genoeg van), vol artikelen die uitgerekt worden met non-content om je langer op de site te laten zijn om je meer advertenties door je strot te kunnen rammen. Die kan een andere AI dan weer mooi samen gaan vatten, z’n eigen fouten in introduceren, of bij gebrek aan beter er zelf maar wat bij verzinnen. Zijn ze ook goed in, “feiten” uit de lucht plukken en vol zelfvertrouwen presenteren als waarheid. AI is het internet in rap tempo irrelevant aan het maken.
Benieuwd waar de content dan vandaan komt.
Als de tech oligarchen met AI alle sites met artikelen die hun niet aanstaan hebben weg geconcurreerd, kunnen ze volledig bepalen welke 'alternative facts' wij voorgeschoteld krijgen. fElon Muskolini helpt een handje, en is al begonnen Wikipedia te bestrijden.
Hoe bestrijdt hij dan Wikipedia? En hoe voorkomt trouwens Wikipedia dat activisten de boel overnemen en de scheidslijn tussen feiten en meningen vervaagt? Bij technische artikelen lijkt mij dat geen probleem maar bijvoorbeeld bij pagina's over personen lijkt mij dit wel een groeiend probleem.
Hoe bestrijdt hij dan Wikipedia?
Zo: https://www.theatlantic.c...on-musk-wikipedia/681577/

Wikipedia heeft al heel lang een werkend moderatie-beleid, dat echter onder druk staat door (extreem-)rechtse trollen.
En hoe voorkomt dit moderatiebeleid dat het onder druk staat door (extreem-)linkse trollen?
Rechts liegt en verdraait extreem veel meer, ook al zijn er uitzonderingen op de regel. Kijk gewoon 5s naar de recente speech van Trump. Letterlijk leugen na leugen. Je kan niet akkoord zijn met politiek standpunten van links en whatever, maar niet met welke kant het meeste aversie heeft tegenover de waarheid omdat het niet in hun propaganda past. Voluit liegen voor de camera, in een interview, in het congress.... maakt allemaal niet uit. Het is gewoon de gedragscode geworden.

Dus als er 50/50 links & rechts verdeeldheid is op Wikipedia, of zelf iets meer links dan rechts, dan nog is de kans vele malen kleiner dat feiten verdoezeld worden en leugens ingevoerd worden.
Als je zaken niet in overdrachtelijke zin kunt opvatten, maar alles letterlijk neem, dan zou je kunnen denken dat er heel veel gelogen wordt. Trump is een bullebak maar komt op mij minder achterbaks over dan veel Democraten politici die zich laven aan het overheidsinfuus. Hoe kunnen al die politici zoveel geld verzameld hebben in hun politieke carrière?
Dat is nu toch wel het ultieme toppunt: de strategie van leugens rationaliseren door te zeggen "het is in overdrachtelijke zin, je mag het niet letterlijk nemen". Dan ben je echt een verloren zaak. In elke normale conversatie in het dagelijkse leven wordt iemand die kort na elkaar 2-3 leugens verteld sociaal genadeloos afgestraft. In professionele context, nog meer. Maar een president, waar de lat 100x hoger ligt en die niet zichzelf noch alleen zijn volgers, maar een hele natie zou moeten belichamen in doen en zeggen... een speech van anderhalf uur vol leugens, onwaarheden, polarisatie en opruiende taal, dat is een "strategie" en ligt het probleem bij iedereen die het te letterlijk neemt?

In welke andere topfunctie is liegen over cijfers, gebeurtenissen en waarheden - zowel om je eigen verwezelijkheden op te fleuren (lees: te fantaseren) als die van de andere negatiever te doen lijken - iets dat normaal is?

Wat wil jij eigenlijk bereiken met dit goedpraten? Dat liegen het nieuwe presidentiële samenbrengende praten is? Dat als elk staatshoofd of CEO het dan maar best begint te doen, want is het de beste manier? De ene manager mag tijdens de meeting de andere gewoon verwijten van corruptie en fraude? Er moet helemaal geen bewijs zijn, alles mag gezegd worden? Alles zal beter draaien, het vertrouwen onderling zal sterker zijn?
Ik gebruik het persoonlijk iets minder vaak, maar wel precies met wat jij zegt kan het soms een uitkomst zijn bij bepaalde programmeer problemen die jezelf op de juiste weg sturen. Wat ik wel merk in mijn omgeving is dat dit bij sommigen zo ver gaat dat ze zelf niet meer in staat zijn die informatie zelf te vinden of dat ze niet meer proberen te snappen hoe een tool of api helemaal werkt, want chatgpt geeft me toch wel het antwoord op mijn probleem.

Dat is vaak waarom ik ook wat skeptischer ben op het gebruik van AI omdat het in vele gevallen vaak wordt gebruikt om vooral werk niet te doen. Waar je vroeger een goede FAQ kon krijgen met doelgerichte oplossingen is het nu steeds vaker het geval dat je zo'n stomme chatbot krijgt die net niks weet.

Daarnaast ben ik wel vel tegen het gebruik van AI op het gebied van beeldgeneratie en andere artistieke doeleinden. Daar ben ik van mening dat het onetisch is om het te gebruiken, zeker aangezien het vaak getrained is op kunst van anderen, zonder hiervoor te betalen, en omdat het het artistieke proces onder waardeerd. De struggle tijdens het maken is vaak namelijk van cruciaal belang voor het uiteindelijke werk
Waarom is het onethisch om het werk van beeldkunstenaars als bron te gebruiken en het werk van codekunstenaars niet?

Juist het vinden van de meeste efficiënte, veilig, performante en/of leesbare code is de kunst van het programmeursvak.
Dan hoef ik niet meer naar deze website, maar kan ik straks aan ChatGPT vragen om het nieuws van Tweakers samen te vatten in de manier waarop ik prettig vind lezen.
Maar daarmee bevestig je dus precies wat @CodeCaster dus zegt, pagina's (en websites, en nieuwssites) zijn al decennia bezig om nieuws een bepaalde manier te brengen, te formuleren, samen te vatten, AI neemt dit slechts over, maar de inhoud blijft hetzelfde, matig en 'commercieel' at best.

Ja, ChatGPT (en anderen) kunnen correcte antwoorden geven, maar voor elk correcte kan ik 10 maken die simpelweg fout, misleidend of 'biased' zijn op basis van de verzamelde informatie. En of dat nu realtime is, voorspellend of absoluut is, de basisprincipes blijven.. garbage in, garbage out.
Heb ik met Grok ook. Het is steeds meer Google aan het vervangen bij mij.
Hier idem; ik gebruik Perplexity eigenlijk voor alle zaken waar ik eerder Google voor gebruikte. Zeker als het iets minder concrete dingen zijn ("hoe oud is <insert naam>") is Perplexity een stuk beter; het vat samen en geeft links naar bronnen zodat je zelf kan checken / verder kan zoeken
Amen.

Allemaal niet doordacht maar overal gewoon inplempen en kijken welk effect het heeft. Dat het bakken energie en resources kost is van ondergeschikt belang. Er zit geen visie achter, althans zo brengen ze het niet over.
Techniek zoekt toepassing.
Tja, vind ook dat die hele AI hype nu toch wel gevaarlijke vormen begint aan te nemen, zeker net zoals je al schrijft dat het je werklijk aan alle kanten opgedrongen word. En ja zeker niet te vergeten dat er steeds meer datacenters gebouwd worden onder het mom weer van jawel, AI.

Ja en wat je schrijft van CO2 uitstoot, vervelende daarvan is dat velen zich dat gewoonweg niet realiseren en wat dat betreft kortzichtig zijn. Hetzelfde als met het hele cloudgebeuren, allemaal leuk en aardig maar men vergeet al die grote energieslurpende datacenter die daarvoor nodig zijn.

In elk geval, van mij ook een +2 !
Hetzelfde als met het hele cloudgebeuren, allemaal leuk en aardig maar men vergeet al die grote energieslurpende datacenter die daarvoor nodig zijn.
Voor heel het internet heb je stroom nodig ja.

Maar of de computers daarvan in een datacentrum staan of bij Tweakers thuis in de kelder, maakt op zich niet alles uit?
Een tweaker is sneller geneigd een rpi neer te zetten als server, terwijl die datacenter dingen allemaal een stuk meer slurpen om hetzelfde te doen.
Ik denk dat de meeste Tweakers echt geen computers meer onder in de kelder hebben staan en gewoon een simpele NAS gebruiken. Een NAS verbruikt in elk geval heel wat minder stroom en gaat ook als die niet gebruikt word op standby. Een datacenter is 24/7 online en trekt dus ook 24/7 heel wat stroom weg maar dat even terzijde.

Voor b.v. backups kan je ook gewoon een externe harddisk gebruiken die je dan alleen aan zet als je gaat backuppen en dan weer uit zet. Ook dan als zo'n externe harddisk aan staat dan zal dat zo max 8 watt zijn qua verbruik wat heel wat minder is dan een server.
Ik durf niet te zeggen of een miljoen individuele nassen minder stroom verbruiken dan een stapeltje servers die een miljoen users voorzien van cloud opslag.

Het voordeel zit in het schalen, datacenters gebruiken veel stroom omdat ze veel gebruikers voorzien.
Maar in een datacentrum gooien ze ook geen stroom weg; warmteontwikkeling en stroomverbruik zijn voor hun ook grote kosten.
Ik durf niet te zeggen of een miljoen individuele nassen minder stroom verbruiken dan een stapeltje servers die een miljoen users voorzien van cloud opslag.
Een NAS word niet 24/7 gebruikt door de meeste mensen en staat vaak in standy stand waardoor het verbruik zo goed als nihiel is. Daarentegen moeten servers 24/7 aan staan en verbruiken daardoor ook 24/7 stroom. Je spreekt hierbij ook niet van een stapeltje servers maar van hele rijen servers, dus ook dat schalen qua gebruikers gaat niet helemaal op hierbij.

En vergeet ook b.v. niet dat meer en meer software online gegaan is en dan alleen online te gebruiken is, ook dat vreet ontzettend veel data van die datacenters. Of neem nu met AI, alleen al voor AI moeten ze weer tig nieuwe datacenters gaan bouwen.
Mij valt op dat juist de grootste natuurmensen in mijn omgeving, die echt zorgen hebben over het klimaat, de hele dag AI gebruiken. Als ik dan weer eens gekscherend zegt:"Wouw, en nu heb je dus water zitten koken in een datacentrum voor iets wat je ook had kunnen googlen?" wordt ik scheef aangekeken.
Maar de tijd dat de klimaatmensen zich schaamde om met het vliegtuig te gaan lijkt voorbij.
Heb natuurlijk ook wel is chatgpt of wat voor AI dan ook getest, en het lijkt best tof. Ik ben alleen al zo vaak tegengekomen dat als ik vroeg om me op weg te helpen met bepaalde software, beetje technisch, dat de antwoorden op het eerste gezicht aardig leken te kloppen, maar als je de stapjes volgde dat het gewoon echt van geen kant klopte. van die woorden als "typically" of "normally" als het over menu items gaat. Zo'n menu item is er wel of is er niet. en niet typically of normally. zelfs in versies van 5 jaar eerder zag dat er in dit geval gewoon hetzelfde uit. Nouja, om maar een voorbeeld te noemen.

Vaak begin ik er gewoon niet meer aan, want het is blijkbaar niet betrouwbaar genoeg.

Maar ik merk toch dat er zat mensen zijn die het echt klakkeloos overnemen. Buiten de argumenten dat je alle menselijkheid wegneemt, en de milieuaspecten, etc, is het best gevaarlijk als je erover nadenkt. Daarbuiten is het hele internet ondertussen vervuilt met die AI bagger. google resultaten bestaan grotendeels uit AI artikelen, die puur zijn ingericht om bovenaan te verschijnen. En je hebt er geen reet aan, Ze zitten eerst je vraag in 6 verschillende paragrafen te herhalen om vervolgens helemaal onderaan het artikel 1 of ander conclusie te vinden die helemaal niks oplost.

En dat willen ze nu dus nog een stapje verder doen.. We gaan hard achteruit.
Het zou wel grappig zijn als je in die modus dan eindelijk weer zinnige resultaten uit Google kan krijgen. Jaren geleden kon je een goed geformuleerde technische vraag zo beantwoord krijgen, nu krijg je de meest irrelevante clickbait voorgeschoteld. incl. zoektermen over compleet andere onderwerpen die ie zelf op de achtergrond toevoegt en je handmatig weg moet minnen in je query, vreselijk.

[Reactie gewijzigd door WhatsappHack op 6 maart 2025 04:05]

Ze zouden beter de verschrikking van een zoekbalk verwijderbaar maken op hun pixels. Wie zijn absurd idee was dat in godsnaam.
Off topic: Kan dat niet gewoon met Nova launcher?

On topic: ik hoop wel dat deze functies zoveel mogelijk gescheiden blijven bij zoekmachines.
Ik zou graag duidelijk onderscheid willen tussen werkelijkheid en gegenereerde content.

Google gebruik ik overigens zelden sinds ddg. Maar als er één schaap over de dam is.
Jammer weer, alleen beschikbaar in de VS. Met VPN heb ik me aangemeld op een wachtlijst om te testen.
Nou voor mij hoeft dit niet want ik zoek net altijd via Google omdat je daar dan gewoon links te zien krijgt en geen andere flauwekul. Ik vraag dan niet naar een of andere snelle samenvatting waarvan je niet weet waar ze het vandaan gehaald hebben.
ja, want via een link naar één of ander obscure site weet je wel van waar het komt...
Op zijn minst genereer je dan nog verkeer op die site en kan die blijven bestaan. Nu slokt google alles op en de bron? Die sterft.
We gaan een boeiend tijd in, want nieuwe content wordt straks niet meer gemaakt.
ah, we verzuipen nu al in de content. Misschien krijgen we dan terug enkel goeie content :-)
Nou dan weet je in elk geval de bron wat je dan via zo'n samenvatting via AI niet of nauwelijks te weten komt.
Als je geen flauwekul wilt moet je allang al niet meer bij Google wezen. Al die “behulpzame” diensten van zichzelf die ze prominent in beeld zetten, gesponsorde resultaten die niet zijn wat je zoekt, en gefilterde resultaten op basis van je bubbel. Als je alleen links zonder onzin wilt kun je beter eens naar iets anders gaan kijken. Google is allang al niet meer wat het 20 jaar geleden was.
Ik ben sinds een paar weken voor zoeken overgestapt van duckduckgo naar Kagi. Een zoekmachine zonder advertenties etc, maar met veel handige functies waaronder Quick Answer.

Met Quick Answer zet je een vraagteken achter je zoekopdracht om een AI-samenvatting met voetnoten te krijgen van de bovenste 5 zoekresultaten. En ik moet eerlijk zeggen dat dit veel beter werkt dan ik had verwacht en dat ik het daardoor ook veel meer gebruik dan ik in de eerste instantie had ingeschat. Erg fijne functie die echt tijd scheelt :)
DuckDuckGo heeft ook al een tijdje AI antwoorden als je een zoekterm met een vraagteken intypt.
ik begin echt de tijd van even de winkler prins bij de hand nemen te missen
Ik zocht een Europese zoekmachine, zonder AI.
Was uitgekomen bij qwant.com, maar lijkt erop dat meer mensen daar nu uitkomen (door USA boycot?), want erg traag inmiddels...
Och och wat een is het weer een feest aan 'vroeger was alles beter' en 'het wordt door m'n stront geduwd' en 'het werkt voor geen meter' hier in de reacties. Als je de meeste mensen moet geloven werkt het grootste deel van Tweakers nog het liefst op Windows 98 krijg ik soms weleens het idee.

Ga mee met de tijd, pas je aan. Ja er komen innovaties uit waar je niets mee hebt, dan heb je als Tweaker de capaciteit om daar omheen te werken of het links te laten liggen. De wereld wordt niet voor jou ingericht, leer daarmee omgaan en houd het voor jezelf leuk door eruit te halen wat je interesseert en laat links liggen wat het voor jou niet doet. /rant

Ik ben persoonlijk erg benieuwd waar het heen gaat met LLM's, ben zelf van mening dat het ons leven drastisch gaat / aan het veranderen is, op een positieve manier.

[Reactie gewijzigd door Majesty op 6 maart 2025 09:41]

Op dit item kan niet meer gereageerd worden.