Microsoft Bing zet zoekresultaten alleen rechts op de pagina

Microsoft Bing gaat de zoekresultaten van het web bij bepaalde zoekopdrachten alleen nog rechts weergeven op de pagina. In het midden staat dan een uitgebreid door AI gegenereerd antwoord op de zoekopdracht.

Niet alle gebruikers krijgen de nieuwe pagina meteen te zien, zegt Microsoft. Het bedrijf biedt de pagina langzaam aan meer gebruikers aan om zo de resultaten te meten. Bovendien claimt Microsoft dat het aantal kliks richting websites niet afneemt met AI-gegenereerde resultaten. Dat komt omdat de AI-antwoorden ook bronlinks bevatten, meent het bedrijf.

De traditionele zoekresultaten staan in een rechterkolom, waar nu de AI-resultaten en verwante zoekopdrachten staan. De resultaten komen van een combinatie van kleine taalmodellen en grote taalmodellen, maar hoe die precies tot stand komen, vermeldt het bedrijf niet.

Bing: Ai-zoekresultaten, juli 2024
Bing: Ai-zoekresultaten, juli 2024

Door Arnoud Wokke

Redacteur Tweakers

25-07-2024 • 19:20

101

Reacties (101)

101
100
51
3
0
34
Wijzig sortering
Bor Coördinator Frontpage Admins / FP Powermod 25 juli 2024 19:34
Ik vraag mij af wat dit met het stroomverbruik van Bing doet. Ai is doorgaans erg hongerig wat betreft verbruik. Elke onnodige AI query is onnodige (potentiële) vervuiling (stroom, koeling, etc).
Exact dit. AI queries verbruiken oneindig veel meer energie dan een simpele Google search. Als dit nu de vervanger wordt voor de standaard zoekmachine, zou dat een dramatische toename betekenen in het wereldwijde energieverbruik.
een dramatische toename
Waar denk je dan aan, wat voor een percentage? 30%?
Ik zag gisteren iets van een factor van 10.
Dat is 1000%!

Daar zou ik graag een bron voor hebben, want als dit waar blijkt te zijn dan zal het toch een serieus obstakel zijn voor AI.
Bij google searches werd een lange tijd geleden aangegeven dat je een liter water aan de kook kon brengen voor wat betreft energieverbruik van een zoekopdracht. Dan zou met AI 10 liter water aan de kook gebracht kunnen worden. Maar dat is zeker 10-15 jaar geleden, wellicht dat zoekopdrachten efficiënter zijn en hardware ook. Maar een factor 10 zou me niet verbazen (en de kans is dat dit nog een voorzichtige schatting is) en dat zal met grotere modellen nog wel kunnen oplopen.
Volgens Google was het in 2009 0.3 Wh per zoekactie (inclusief indexering), je kunt er redelijk vanuit gaan dat door de hardware techniek erachter het de afgelopen jaren zuiniger is geworden.
Together with other work performed before your search even starts (such as building the search index) this amounts to 0.0003 kWh of energy per search, or 1 kJ.
[...]
In terms of greenhouse gases, one Google search is equivalent to about 0.2 grams of CO2.
Bron: https://googleblog.blogsp...wering-google-search.html

Voor AI:
For now, let’s dive deeper into what 4.32g of CO2 emissions per query means.

Here’s what the equivalent CO2 usage is by query:

15 queries = watching one hour of videos
16 queries = boiling one kettle
20-50 queries is the equivalent of consuming 500ml of water.
139 queries = one load of laundry washed at 86 degrees Fahrenheit, then dried on a clothesline
92,593 queries = a round-trip flight from San Francisco to Seattle (according to this calculator)
Bron: https://piktochart.com/blog/carbon-footprint-of-chatgpt/

ChatGPT verwerkt dagelijks 200.000.000 queries (op dat meetmoment) en energieverbruik van ChatGPT is 500.00 kWh. Dus, het energieverbruik per query voor ChatGPT is 2.5 Wh volgens die bron.
Indeed, a recent study from scientists at Cornell University found that generative AI systems like ChatGPT use up to 33 times more energy than computers running task-specific software. Furthermore, each AI-powered internet query consumes about ten times more energy than traditional internet searches.
Dit zou 10x zoveel energie kosten, waarbij ik zie dat er bij de getallen van Google ook de indexering is meegenomen en dat bij de bovenstaande bron over ChatGPT niet direct duidelijk is of het inclusief training is.

Het gaat komende tijd nog wel even toenemen:
“Altogether, the global AI sector is expected to be responsible for 3.5 per cent of the world’s electricity consumption by 2030. In the United States, data centres alone could consume a whopping 9 per cent of electricity generation by 2030.
Bron: https://www.thisdaylive.c...dustry-climate-stability/

[Reactie gewijzigd door jdh009 op 25 juli 2024 22:52]

Ja, de gemiddelde laptop en computer zijn redelijk wat zuiniger met hun energieverbruik. De nieuwe kaarten die NVidia bouwt om AI te versnellen zijn dat helaas niet. Alleen de unit die AI verwerkt slurpt al bijna 6 kilowatt. En de rest van de server om die kaart heen gaat ook richting de 2 kilowatt aan energie verbruik.

Nu zijn dit brute servers die AI/LLM modellen flink versnellen, maar een serverrack vol met zulke servers verstookt energie als een dolle en daar bovenop komen ook nog een de koelingskosten.

Een partij als Microsoft/Google/Apple/enz. willen graag dat iedereen via hun AI oplossing werkt. Dus moeten ze wel meerdere van dat soort serverracks hebben om hun grote aantallen gebruikers zo snel mogelijk van een AI respons te voorzien.

Servers in datacenters hebben maar 1 doel: prestaties. Energiezuinigheid staat niet op het 2e plan, niet op het 3e plan, maar op het 4e plan. Natuurlijk wil men daar ook met de meest zuinige processoren en andere hardware aan de slag, maar servers moeten zich in relatief korte tijd terugverdienen c.q winst maken. Dus gaan deze zo hard mogelijk aan het werk voor een jaar of 3 en dan is het tijd voor een nieuwe server. Dure hardware in een zeer dure locatie. Energiezuinig, dat kun je dus echt wel vergeten.

Er zit dus een enorm verschil tussen gebruikspatronen tussen consumenten hardware en server-grade hardware. Dus is het leuk en nuttig voor de consument dat deze een energiezuinige computer/laptop in huis kan halen, maar het datacenter heeft daar dus geen bal aan. Want als een server niet alle beschikbare hardware ten volle belast, dan neemt die server een dure plek in en is deze niet rendabel.

Besef ook dat datacenters met een beetje formaat al gauw routers en switches moeten gebruiken, welke ook een electriciteitsaansluiting van een gemiddeld woonhuis nodig hebben om te functioneren.
1 liter water aan de kook brengen vanaf 20 gr. C kost 80 gr. C x 4.18 J/C/g x 1000 g = 330000 J = 91 Wh. Een heel ander getal dan hieronder gemeld (0.3 Wh).

Dus ik denk dat dat getal niet klopt
Het kwam langs in een youtube clip met vergelijkingen over datacentra en problemen met stroomvoorzieningen.
Kwam ook het verschil voorbij tussen Google en Bing. Google was/is veel zuiniger dan Bing.

[Reactie gewijzigd door icecreamfarmer op 25 juli 2024 23:03]

ChatGPT geeft daar zelf antwoord op:
Normale Bing-zoekopdracht: 0,3 tot 1 Wh
Bing-zoekopdracht met ChatGPT: 10 tot 100 Wh
Bron: https://chatgpt.com/share...c8-45cf-8e22-ac74d13c626c

Dat is enorm veel inderdaad.
Zonder verdere bron heb je daar weinig aan, gezien je meerdere antwoorden krijgt van dat ding. Dit is ook de reden waarom je ChatGPT niet je huiswerk moet laten maken.
If a traditional Bing search consumes approximately 0.3 Wh per query, an AI-integrated search could consume around 3 Wh per query.
https://chatgpt.com/share...df-427f-b983-e2dada9dc1e1
Volgens beschikbare gegevens verbruikt een traditionele zoekopdracht op Bing ongeveer 0,3 wattuur (Wh) aan elektriciteit. Daarentegen verbruikt een zoekopdracht met ChatGPT, afhankelijk van de complexiteit en duur van de interactie, tussen de 6,9 en 8,9 Wh per zoekopdracht​.
Bron: https://chatgpt.com/share...58-4c3d-bd8a-3bdef907f8da
Als we aannemen dat een normale Bing-zoekopdracht 0.3 Wh verbruikt en een ChatGPT-geïntegreerde zoekopdracht gemiddeld 50 Wh (middenwaarde tussen 20-100 Wh)

[...]
Dit betekent dat een ChatGPT-zoekopdracht tussen de 0,0075 kWh (7,5 Wh) en 0,018 kWh (18 Wh) kan verbruiken​
https://chatgpt.com/share...c1-4ec3-8cf9-e956c9ca6fdc

[Reactie gewijzigd door jdh009 op 25 juli 2024 23:14]

Ik neem ChatGPT ook niet voor waarheid aan, maar het is meer een manier om te laten zien dat het wel een ding is.

Maar in jouw reactie geeft het toch ook aan dat het verbruik meer is?
Je hebt gelijk:

Sent by Copilot:
Zoeken met AI verbruikt aanzienlijk meer energie dan traditionele zoekmachines zoals Bing of Google. Volgens schattingen kan het gebruik van generatieve AI voor zoekopdrachten tot wel 10 keer meer energie verbruiken dan een standaard zoekopdracht1. Dit komt doordat AI-modellen veel rekenkracht en dus energie vereisen, zowel tijdens het trainen als tijdens het gebruik.
In dit geval worden beide soorten zoekresultaat tegelijk getoond.

Dat is dus niet alleen die 1000%, maar ook het verbruik van de normale/geïndexeerde resultaten moeten er nog bij opgeteld worden.

[Reactie gewijzigd door Botmeister op 26 juli 2024 09:41]

Alles beter dan het verbruik van bitcoin …

Dat gezegd te hebben, met Google met ik vaak vele zoekopdrachten en advertenties verder voordat ik gevonden heb wat ik zocht, als een LLM sneller antwoord kan geven, vindt ik dat ook prima.
Dus het wereldwijde energieverbruik zou met een factor 10 toenemen als KI gebruikt zou worden voor al het zoeken over het Internet. Interessante aanname. Ik zou zelf eerder denken aan iets in de richting van 0,001%, dus een factor 0,00001.
Dat wordt helemaal niet gezegd...?
Dat is precies wat hij zei. Ik heb het geciteerd in mijn reactie.
Tenzij het wereldwijde energieverbruik voornamelijk bestaat uit Google zoekopdrachten is dat niet wat er staat.

Ok, fout gekeken. Als we het gesprek letterlijk gaan interpreteren zou je dat wel kunnen stellen. Maar ik denk niet dat dit bedoeld wordt.

[Reactie gewijzigd door jerisson op 25 juli 2024 23:05]

Google heeft 49% meer energie verbruikt sinds 2019 en vorig jaar alleen al 13% meer. Dat zullen ze dit jaar ook wel gaan halen.

https://apnews.com/articl...9125831d66e676e811ece8a18
Ze hebben hun klimaatambities ook al aangepast door het gestegen energiegebruik:
https://www.bloomberg.com...ming-to-be-carbon-neutral
Maar dat is niet wat hij zegt, ik heb speciaal geciteerd wat hij zegt.
Behalve als je nu in twintig seconden je antwoord hebt terwijl je er normaal een half uur verder voor moet zoeken. Daarnaast is dit misschien juist goed, want als de energiekosten van Microsoft nu opeens enorm de lucht in gaan, gaan ze wel sneller werk maken met het energieverbruik van hun modellen omlaag brengen.
dan moet het gegenereerde antwoord nog wel correct zijn.
Microsoft stelt hun LLM 'Phi' beschikbaar. Het kleinste model zal dus best efficiënt zijn, maar deze hallucineert wel heel erg snel. De LLM Code Instruct van StableAI is maar een klein beetje groter in omvang, vergelijkbaar qua efficiëntie dus. Echter heb ik deze nog niet 1 keer zien hallucineren en gebruik deze nu een maand of 4.

Zijn de antwoorden net zo uitgebreid als die van ChatGPT? Nee. Zijn de antwoorden die ik kreeg van deze 2 LLM's erg bruikbaar voor mijn doeleinden? Jazeker. De LLM van StableAI kan ik echter kosteloos op mijn eigen hardware gebruiken, de meest nuttige ChatGPT versie kost me een abonnement en privacy.

Zijn de antwoorden van ChatGPT zoveel beter dan die van StableAI, dat het de kostenafweging waard is? Voor mijn doeleinden niet.
Nou ik denk dat ze de stakeholders (aandelen) belangrijker vinden dat alle greenwashing die grote bedrijven doen om te laten zien hoe erg ze zijn begaan met het milieu
Google maakt al jaren gebruik van "AI" en machine learning voor zijn zoekopdrachten.
Maar er is wel een verschil tussen een page rank en een LLM samenvatting, waarbij een LLM samenvatting van de search results niet alleen de ML gebruikt van Page Rank, maar die resultaten gebruikt als context voor een LLM, die veel meer stroom gebruikt. Je hebt hier twee hele verschillende soorten AI (waarvan eentje nog redelijke performance heeft op een i5 4200M, en ja ik heb op zo'n CPU ML gedraait, tegenover een LLM die zelfs op een dubbele 4090 nog niet de beste performance heeft, source, networkchuks local AI video)
We weten uiteraard dat er iedere dag nog talloze nieuwe unieke vragen worden gesteld aan zoekmachines. Maar hoeveel % is er al meerdere keren eerder gesteld? Lijkt me toch dat dat vrijwel alles is. En die kun je dan steeds voor een bepaalde periode wel cachen? Actualiteiten uiteraard niet echt, maar denk dat een hoop wel te ondervangen is en dus feitelijk gewoon opspugen wordt van iets wat ooit eerder door AI is gegenereerd.
Ik denk dat dat met degelijke caching wel goed te doen valt.
Caching met AI? Lijkt me niet AI meer, maar een resultaat van een zoekopdracht ( in cache) dan.
Het grootste deel van de zoekopdrachten zijn simpele zoektermen met vrij standaard antwoorden.

In de screenshot in het artikel kan je bijvoorbeeld vrij simpel "leeftijd olifant" als term definiëren en het antwoord voor een tijd opslaan. Dat antwoord gaat immers niet snel veranderen. Gooi er wat traffic analytics op en je kan dynamisch een goede cache TTL voor een bepaalde term definiëren.
Volgens mij is er een uitstekende deal met groene stroom uit Nederland. De windparken draaien ‘gratis’ en leveren eenvoudig stroom voor behoeftig AI. Er zal ergens een goeie contract getekend zijn.

Persoonlijk zit ik op DDG. Ecosia zet mij wel aan het denken. Ecosia is met groene acties, wereldwijd bomen planten, een waardig tegenspeler.
Bor Coördinator Frontpage Admins / FP Powermod @DefaultError25 juli 2024 21:08
Groene stroom die daarmee niet voor andere en nuttigere toepassingen kan worden gebruikt. Warmte dat weer moet worden afgevoerd. Overlast gevende windparken. Ik zie (ook) grote nadelen.
Oude watermolens, zaagmolens en graanmolens waren ooit ook een vloek in het landschap. Toch konden we niet zonder en heeft het de boel vooruit geholpen.

Volgens mij is deze overlast een stok om mee te meppen zodat het je achtertuin niet met slagschaduw vervuilt.

Er zit een kritische noot in mijn zinsnede.
Hadden we hier in NL niet een hele mooie groene energiecentrale gebouwd, waarvan uiteindelijk de stroom alleen gaat naar een datacenter van MS?

Leuk dat zij dan het label 'groen' kunnen plakken, maar beide moeten groen worden, niet omdat zij aan hun imago moeten denken.
Is het niet een misverstand over hoeveel energie een AI algoritme zelf verbruikt?

Het inleren van een algoritme kost het meeste energie daarna hou je feitelijk een base algoritme over die gebruikt wordt.

Deze base algoritme kan weer verbeterd worden met meer input wat een base 2.0 oplevert.

Dus het gebruik van een algoritme gebruikt minder dan het inlezen. Maar het algoritme wordt natuurlijker meeste gebruikt.

Althans zo begrijp ik het vanuit healthcare AI toepassingen.
Zal wel mee vallen, de AI zal niet elke keer het antwoord genereren. Wanneer het 1 keer gevraagd is komt het waarschijnlijk gewoon uit cache. Google "zoekt" ook niet echt elke keer als je bijvoorbeeld: formule 1 intypt, je krijgt gewoon een gecached pagina, en eens in de zoveel tijd maakt google een nieuwe.
Als dit AI antwoord daarintegen meerdere zoekopdrachten bespaart dan compenseert het wel weer het hogere stroomverbruik
Bor Coördinator Frontpage Admins / FP Powermod @Slashdotter25 juli 2024 21:10
Dat vraag ik mij af. Een AI antwoord bestaat uit zeer veel berekeningen. Ik kan geen bron vinden waarin een goede objectieve vergelijking wordt gemaakt. Heb jij een bron voor de compensatie claim die je doet?
Dat vraag ik me af, volgens ChatGPT zelf:
Normale Bing-zoekopdracht: 0,3 tot 1 Wh
Bing-zoekopdracht met ChatGPT: 10 tot 100 Wh
https://chatgpt.com/share...c8-45cf-8e22-ac74d13c626c
Veel. Microsoft heeft al gezegd dat ze hun 2030 doel (waar ze klimaatneutraal willen zijn) in de kliko hebben gegooid omdat ze meer willen focussen op AI.
Zitten hier zoveel mensen op te wachten? Waarom niet twee verschillende zoekopdrachten aanbieden? Bepaalde dingen zoek je vlotter op via de gewone zoekmachine, en andere is AI juist weer beter geschikt voor. Daarnaast is niet alle informatie van AI juist, maar dat brengen ze nu wel prominent in beeld.

Ik had het liever gezien als extensie op je reguliere zoekopdracht. Gewoon bij de resultaten een optie van "Niet gevonden wat je zocht? Probeer het met AI!".
Zucht, MS weer met hun AI hypemachine. Ik word er een beetje gek van. Ze zijn helemaal doorgeslagen met hun marketinghype. Net zoals toen met Windows 8 toen alles tablets tablets tablets moest worden en ze er geen enkel probleem mee hadden de gewone desktop ervaring om zeep te helpen. Waar ze uiteindelijk met Windows 8.1 natuurlijk op terug zijn gekomen want de situatie was niet houdbaar. Maar nu gaan ze ook weer te ver in hun gretigheid de koning van AI te worden.

Kijk, soms is het handig hoor, daar niet van. Maar om het zo door je strot te duwen... Maak het een optie die je aan kan klikken. Zoeken met AI of zoeken gewoon. Ze hebben daarboven al een Search en een tabje copilot, waarom dan toch de search ook nog copilotificeren?

Nou was Bing sowieso een slechte zoekmachine. Ik gebruik het alleen als bron voor mijn eigen zoekmachine maar nooit direct. Maar op het werk zit ik er helaas wel aan vast door hun lobby.

Ik gebruik hier ook wel een eigen AI powered search via OpenWebUI + Llama 3 (nu 3.1) maar soms wil je gewoon een normale zoekopdracht doen omdat je geen vraag hebt maar gewoon een webpagina wil vinden.

[Reactie gewijzigd door Llopigat op 25 juli 2024 19:31]

Google is ook puur AI zooi. Ja je kunt ergens verstopt per zoekopdracht klikken op WEB.
En direct doorlinken naar maps werkt ook al een tijdje niet meer. Als voorbeeld zoek op denhaag. En probeer dan eens met 1 klik maps te openen.
Bij Bing werkt dit nog wel. Voor zo lang het duurt.
Ah ik gebruik ook Google nooit meer direct :') Dus ik had dat niet gezien.

Ik heb alles achter SearXNG zitten. Die haalt alle marketing en tracking eruit en verzamelt bovendien de uitkomsten van meerdere zoekmachines in 1 overzicht <3

Ik zie nu inderdaad op google.com dat het tabje "maps" helemaal verdwenen is 8)7 Raar want er is zat ruimte voor.

Ik ben echt blij dat het tegenwoordig zo goed mogelijk is jezelf een beetje te isoleren van dit soort dingen.

[Reactie gewijzigd door Llopigat op 25 juli 2024 19:45]

Ik was laatst op Google ook al aan het zoeken naar de Maps links, geen idee waarom dat dan weer weggehaald wordt.

Run je searchxng zelf? Zo ja, is dat een beetje te doen kwa resources?
Zo nee, welke public instance gebruik je/zou je aanraden?
Zat er al tijdje over te denken het te proberen, je post herinnerde me eraan :) bedankt!
Ja, SearXNG is erg licht. Het draait bij mij op een hele kleine VPS (Scaleway STARDUST1-s) van 4 euro per maand, inclusief een hele berg andere dockers (pihole, telegram proxy, VPN en nog wat spullen). Geen enkel probleem met resources. Het draait snel en ik heb maar de helft van de 1GB geheugen in gebruik. Het voordeel is dat ik het op die manier overal vandaan kan gebruiken.

Een public instance heb ik nooit geprobeerd. Ik heb de mijne ook helemaal ingesteld zoals ik wil en geskind. Ik draai het in docker (zoals de meeste spullen die ik draai) en dat gaat heel makkelijk.

Ik heb ook het idee dat de zoekresultaten beter zijn dan met de 'kale' zoekmachines. En je hebt voor de verschillende categorieen veel gespecialiseerde zoekfuncties.

Als 'map' gebruikt het openstreetmap en dat vind ik nog een stuk fijner dan Apple maps. Alleen je hebt wel een extra klik, het is niet helemaal geintegreerd (je krijgt eerst een lijst met zoekresultaten op openstreetmap.org en daar moet je dan op klikken)

[Reactie gewijzigd door Llopigat op 25 juli 2024 22:47]

Bedankt voor de info/het delen van je ervaringen. Klinkt goed! Net een public instance geprobeerd en resultaten lijken inderdaad al wat beter dan puur Google voor de searches die ik geprobeerd heb.
Ga het maar eens proberen op m'n server, bedankt!
Ik zoek zo ie zo niet zoveel meer met Google maar even off topic. Ik vind het erger dat Google iets kapot heeft gemaakt in de Chromium engine waardoor darkmode van webpagina's bij mij vaak niet meer werkt.... Bij de resultaten van Google krijg ik tegenwoordig bijna altijd gewoon witte i.p.v. pagina's van kleur.
Die directe link naar Maps is geloof ik weggehaald omdat Google van onze wetgeving niet zijn eigen kaartendienst zo mocht pushen.
Dat is dan gek. Bing doet het nog wel. En die valt onder de zelfde wetgeving.
Misschien is Google op de vingertjes getikt?
ik neem aan dat je het dan niet over gewoon op de pc bedoelt, want als ik op Den Haag zoek is de eerste link... de website van denhaag.nl... Tweede wikipedia over Den Haag. Derde denhaag.com. Vierde wikipedia over Den Haag, maar Engels. Vijfde, voetbalclub van Den Haag.

En dan komt het eerste wat geen normaal zoekresultaat is: wat er op twitter staat.

Dan weer denhaag.com, maar een specifieke pagina. Enzovoorts. Letterlijk geen enkele AI gegenereerd resultaat. Buiten de duidelijk andere samenvattingen van twitter, etc...

Als ik naar Den Haag maps zoek krijg ik bovenaan een google map van Den Haag, met tacks, en als je op de tack klikt kun je gelijk een route laten zoeken.
Tja, als je iets op Maps zoekt moet je ook gewoon !gm achter je zoekopdracht schrijven of in DuckDuckGo op Maps klikken of direct naar de Apple Maps applicatie. Waarom zou ik het googlen. :P
Zoals ik het iemand een keer in een interview met Linus Torvalds hoorde zeggen, AI is spellingscorrectie op steroiden.

En ja ik maak tegenwoordig meer gebruik van ChatGTP om antwoord te zoeken als C# ontwikkelaar dan dat ik rondzoek op Google of Stack overflow... want ja... het is toch verrekte handig.
Ja er zijn wat doeleinden waar het echt in uitblinkt. Ik heb zelf ook een lokale AI machine (ben niet zo van de cloud). En ja voor programmeren helpt het zeker. Logisch ook want programmeren gaat ook met taal.

En andere dingen ook. Samenvatten, vertalen, verhalen helpen verzinnen. Yup.

Maar er zijn ook een heleboel dingen waar LLM's totaaal niet geschikt voor zijn en Microsoft die er toch in probeert te wurmen. Zoals Excel copilot. Dat bakt er echt niks van.
Maar er zijn ook een heleboel dingen waar LLM's totaaal niet geschikt voor zijn en Microsoft die er toch in probeert te wurmen. Zoals Excel copilot. Dat bakt er echt niks van.
Nog niet, gok ik? Meestal duurt het even.

Maar ook dat werkt niet. Niet iedereen heeft altijd dezelfde formules en cijfers, dus snap niet zo goed wat je precies hier wilt autocompleten of voorstellen? Misschien een diagram?
Windows 8.1 was en werkt nog altijd. Het is een snelle responsive OS. Door de pers is deze volledig neergesabeld.

Het is de markt, de gebruikers, die de keuze bepalen. Als er andere betere en meer zuinige zoekmachines ontstaan zal er een subgroep ontstaan. Uiteindelijk komen we tot conclusies. Het is goed om kritisch te zijn en vragen te stellen.

We leven nu eenmaal in een race van wie de beste heeft. Een autocratie zal marktwerking in de kiem klein houden.
Ja 8.1 was de gefixte versie. Windows 8 was de versie met het probleem. Met name het startscherm was gewoon onbruikbaar op een desktop.

En ik ben geen voorstander van ongebreidelde marktwerking. Ook niet van autocratie, maar meer van openheid en keuzevrijheid.
Beetje concurrentie kan geen kwaad niet.

Met versie 8 moest je snel naar 8.1 inderdaad.

De keus wordt mede bepaald met het gezonde verstand. En verstand van zaken natuurlijk.

Openheid is niet direct handig om je product te maximaliseren. Alhoewel Microsoft er best goed uit is gekomen. Best oké dat de EU kritisch is en regels oplegt aan grote spelers.
Ik zal blij zijn als die AI trein uit weer een keer wat uitgedenderd is. Alles is tegenwoordig AI maar zolang ik als ontwikkelaar van ChatGPT turbo soms nog hele gekke antwoorden krijg neem ik de boel toch met een koreltje zout.

Die modellen zijn goed in het "stelen" van "openbare" informatie waar overal de waarheid staat :-)
idd, zelfs mijn tandenborstel heeft ineens AI :-(
Helaas gaat dit niet meer weg, dit gaat veel verder dan een hype.

Ja, de bedrijven gebruiken dit nu om dingen te verkopen, maar vergelijk het met streaming, gok dat 75%> het nu wel gebruikt, of ooit heeft gebruikt. Datzelfde gaat met AI gebeuren, al gaat dat soms ook zonder dat je weet (wat eng is).
Mja ik denk dat er ook een groot verschil zit in vragen waar een enkel antwoord op is, en vragen waar meerdere antwoorden op mogelijk zijn, of zelfs gewenst zijn. Als ik naar reviews zoek, hoef ik geen AI antwoord te hebben, dan ben ik op zoek naar meerdere meningen. Maar als ik wil weten hoeveel jaar geleden de maanlanding was, dan vind ik het prima als ik meteen 55 jaar terug krijg.

Het probleem is vooral het onderscheid maken. Daarbij wil ik ook gewoon de optie krijgen om dit zelf te bepalen, niet alleen om zeker te weten dat ik de gewenste resultaten krijg, maar ook om te zorgen dat er niet onnodig veel energie verbruikt hoeft te worden voor mijn query.

Maar goed, dit model is toch niet lang houdbaar zonder enige veranderingen. Ze gaan nu nog veel investeren om modellen te trainen en testdata te verzamelen, maar dat gaat op een gegeven moment ook ophouden (of in ieder geval op deze schaal). Ik ben op zich wel benieuwd hoe de zoekmachines zelf de toekomst voor zich zien, maar feit blijft dat dit inderdaad iets is wat gewoon een einddatum heeft zolang het zoveel energie en hardware kost.
Weer een reden om vooral geen Bing te gebruiken. Helemaal na het openen van de webpagina, het ziet er heel erg druk en onbruikbaar uit. Google is erg, maar Bing is gewoon nog een tandje erger. * ShadLink terug naar duckduckgo gaat
* ShadLink terug naar duckduckgo gaat
Je weet dat DDG ook gewoon Bing is achter de schermen he? :) Maar idd de gebruikservaring is een heel stuk beter.
Het gebruikt inderdaad de search engine van Bing. Maar dat wil denk ik niet zeggen dat DDG ook de AI resultaten van Bing krijgt. Als DDG ze al krijgt wil dat overigens ook nog niet zeggen dat ze ze op dezelfde manier moeten laten zien als Bing.
Ja voor zoekresultaten idd. Maar alle rommel daar omheen niet.
Zolang dan de rechterkant niet gevuld wordt met sponsored en advertentie meuk, dan kan dit nog positief zijn, want oprecht, co-pilot werkt goed. Zo niet, dan wordt een traditionele link alleen maar lastiger om te vinden.
Zoals dat je op YouTube zoekt op "Top Gear", en je krijgt dan opeens aanbevelingen voor muziek tussen de resultaten dat je al eerder hebt geluisterd.

Als iets nog met iets te maken heeft, dan snap ik het. Maar niet zomaar iets random, ik zoek toch ergens specifieks op?

[Reactie gewijzigd door HollowGamer op 25 juli 2024 20:13]

Dit is immens verwarrend wanneer een mens al 25 jaar aan de linkerkant van zijn search engine zijn zoekresultaten gaat bekijken. Maar dat is waarschijnlijk ook het doel hiervan natuurlijk.
Nou ja, het zijn nog steeds zoekresultaten. Alleen een door AI voorgekauwd antwoord, in plaats van websites die je zelf bekijkt. Als je ziet hoe de gemiddelde tiener dingen op internet zoekt is dat wellicht nog niet eens zo'n gek idee, want het is niet alsof ze een webpagina ooit echt lezen.

Natuurlijk geen echte oplossing voor het probleem van nul aandachtsspanne, maar een pleister op de wonde.

Behalve dan dat eh... wie gebruikt er nou ooit Bing?

[Reactie gewijzigd door StefanDingenout op 25 juli 2024 20:53]

Ik denk dat mensen niet goed doorhebben hoe het bij MS werkt. De resultaten van die AI worden gevoed door actuele informatie. Hij zoekt dus, geeft een samenvatting van informatie, levert de bronnen die klikbaar zijn, en doet nu de traditionele resultaten nog eens aan de zijkant. Je krijgt dus in 1 oog opslag, gigantisch veel info.

Daarnaast zijn mensen verknocht aan Google, waarbij je sleutelwoorden gebruikt. Bing was altijd al beter in natuurlijke vragen stellen.

Ik ben op recht van mening dat mensen eens wat moeten proberen.

We wilden pas geleden kijken om bij het Nijntje Museum te komen in Utrecht, we wilde uitvogelen hoe je buiten het centrum kon parkeren en dan met OV daar naar toe gaan. Ik stel die vraag, ik stel uit welke richting ik kom, en ik krijg stap voor stap alle route informatie, welke lijnen, hoeveel het kost en hoe lang ik moet lopen, alle adressen, en dus met alle bronnen erbij. Een leek kan hiermee op de bestemming aankomen.

Het is oprecht belachelijk mooi hoe dit werkt. Zoeken kan veel beter, en dat zijn ze echt aan het doen hier.
Tja, ik heb Bing geprobeerd. Het was onoverzichtelijke bagger. Maar goed, ik heb net jouw voorbeeld geprobeerd en CoPilot lijkt op zich wel goed te werken. Toch om suggesties te doen, ik zou het altijd zelf nog even controleren of het echt de handigste manier is. Wat ik wel goed vind is dat CoPilot niet zegt "dit is het" maar juist zegt "je zou bijvoorbeeld daar of daar kunnen parkeren", om duidelijk te maken dat het een suggestie is en je zelf moet denken of het de beste optie is.

Want dat is het probleem wat ik aankaartte met hoe tieners vaak zoeken. Ze controleren niet of het resultaat logisch is, accepteren vaak het eerste wat ze vinden. Zie dat constant op de school waar ik werk. Geven ze bijvoorbeeld een presentatie waarbij ze uitleggen wat een afkorting betekent (want dat moest van de opdracht) alleen is het een resultaat dat niks met de opdracht te maken heeft, maar toevallig dezelfde afkorting gebruikt.

Maar nu ik even gekeken heb, Bing lijkt in z'n geheel een stuk beter te werken dan toen ik het voor het laatst probeerde. Ik krijg de oude versie nog, niet die van dit artikel, en ik vind het nog wel wat rommelig, maar je kunt nu in ieder geval dingen vinden. Dat was in het begin echt niet zo.

CoPilot lijkt me ook wel OK. Niet echt iets voor mij, want ik denk juist in sleutelwoord vragen waarbij ik precies definieer wat ik wil dat de search engine doet. Ik wil juist niet dat dat ding zelf gaat interpreteren wat ik bedoel. Ik vertrouw liever op m'n Google Fu. Maar goed, dat is een skill die steeds zeldzamer wordt, en veel mensen proberen juist wel tegen een computer te praten alsof het een persoon is. Dus het heeft zeker z'n plek.

[Reactie gewijzigd door StefanDingenout op 25 juli 2024 22:05]

Los van de bronvermeldingen die ze leveren, is ook maar de vraag of we die info moeten wantrouwen.

We hebben veel AI onzin gezien, het zogenaamde hallucinating. Maar dat zijn enerzijds situaties die vaak heel erg er gericht op zijn om zo'n bot in de war te brengen, en anderzijds zijn dit ook vaak bots geheel op oude info draaien. Wat MS doet is deze veel meer integreren met de zoekmachine, het gebruiken van veelal bekende en betrouwbare bronnen, en deze veel meer samenvattend je doet aanbieden.

Het zal bij mij ook nog wel even duren totdat ik helemaal het vertrouwen hebt dat ik verder niets meer controleer, echter is tot nu toe iedere keer weer erg goed.

Ik ben met een studie bezig, en daar is co-pilot echt heel handig is, snel info die ik moet hebben, met bronnen erbij, waardoor ik snel al veel info kan vinden. Ook juist omdat je kan vragen voor bepaalde type bronnen, zijn de zoekopdrachten echt waardevol.
Nee hoor, heeft niks met een bot in de war brengen of oude info te maken, maar met de AI op zich.

ChatGPT bijvoorbeeld is heel erg loose met feiten. Ik heb bijvoorbeeld een chat gehad daarmee waarin ik vroeg of het getraind was met een bepaald boek. Het zei ja. Dus dan verwacht je dat het de tekst ook daadwerkelijk kent. Ik vroeg hoe een bepaalde gebeurtenis ook alweer verliep in het boek omdat ik me het niet helemaal kon herinneren. Ik kreeg een antwoord wat precies bij de sfeer van het boek paste, maar complete onzin was omdat ChatGPT andere bronnen er bij haalde met vergelijkbare onderwerpen. Het was thematisch een heel leuk antwoord, maar ik vroeg niet om een leuk verhaaltje, ik vroeg wat de bron waar we het over hadden zegt. Toen ik zei dat ik zeker wist dat het antwoord niet klopte vanwege een detail wat ik nog wel zeker wist, zei ChatGPT, sorry je hebt gelijk, het zit eigenlijk zo.... en gaf weer een compleet verkeerd antwoord gebaseerd op weer andere bronnen dan het boek waar we het over hadden.

Ik heb ChatGPT gevraagd of het nog bijgewerkt werd. Het antwoord was ja, ik wordt constant getraind met nieuwe materialen. En na wat doorvragen zei ChatGPT tegen me, in dezelfde sessie, dat het geen kennis had van bronnen nieuwer dan een bepaalde datum. ChatGPT ziet er geen probleem mee dat die antwoorden elkaar direct tegenspreken, zelfs niet in dezelfde sessie.

Dit heeft niks met de bot in de war brengen of oude info te maken, maar met dat de bot probeert een juist klinkend antwoord te genereren ongeacht of het dat kan, en ongeacht dat je duidelijk gemaakt hebt dat het antwoord binnen een bepaalde context moet blijven. Dit verschilt natuurlijk per AI, en hoe ze getraind zijn, en wat voor info ze proberen te geven (ChatGPT is bijvoorbeeld een text generator die gewoon een leuke tekst probeert te genereren), maar AI's zijn uiteindelijk maar modellen die iets genereren; ze zijn nog lang niet op het punt dat ze interacties en informatie daadwerkelijk begrijpen.

Kijk bij CoPilot krijg je die bronnen, dus je KUNT het controleren (en hoort dat ook te doen), maar ChatGPT geeft nooit bronnen. Toch zijn er zat mensen die volledig vertrouwen op wat ChatGPT uitspuugt, en dit zelfs gebruiken als reden om experts niet te geloven... de bron van de informatie die ChatGPT gebruikt... Maar veel dichter bij huis: veel leerlingen gebruiken ChatGPT om huiswerk te maken in plaats van de stof daadwerk door te nemen, en wat ze dus als bijeffect leren is het verhaaltje dat ChatGPT ze gaf. Terwijl ze het boek voor hun neus hebben, en het daadwerkelijk antwoord zelf zouden kunnen leren en _begrijpen_. Dan gaan ze bij het eerst volgende proefwerk dus flink op hun bek, want niet alleen begrijpen ze de stof niet dus kunnen het proefwerk moeilijk maken, wat ze wel weten kan ook nog eens fout zijn en ze missen de context om het onderscheid te kunnen maken. Hopelijk leren ze daar dan van, maar qua cijfers kan dit al een serieus probleem veroorzaakt hebben.

Jij zegt dat je met een studie bezig bent, maar dan ga ik er van uit dat je dus al zelf het onderwerp begrijpt en kan beoordelen of de antwoorden die je van een AI krijgt in ieder geval realistisch zijn. Plus dat je ook gewoon de bronnen controleert. Maar ik heb het over mensen die dus NIET het onderwerp al begrijpen, en denken dat de AI als bron telt.
Hoera net nu Bing een beetje tractie leek te krijgen weten ze het weer vakkundig oninteressant te maken.
En dan nog omdat MS ongewild onbewuste gebruikers geforceerd met het mes op de keel omleidt naar Bing?
Ik weet niet zeker of ik hier nou zo blij mee ben.
Blij dat ik Firefox met DuckDuckGo gebruik! Ik wordt zó moe van al die AI die je overal elders opgedrongen krijgt...

Op dit item kan niet meer gereageerd worden.