Zoekmachine Google krijgt generatieve AI

Google heeft ingrijpende wijzigingen aan zijn zoekmachine aangekondigd. Bovenaan de zoekmachine komt bij sommige zoekopdrachten een 'Generative AI'-snippet met een gegenereerd resultaat die antwoord op de vraag moet geven.

De zoekmachine krijgt de grote snippet met generatieve AI onder gesponsorde resultaten of bovenaan. Daarnaast komt er een manier om te chatten met de zoekmachine voor vervolgvragen op basis van het resultaat. Ook is de snippet groter te maken om meer informatie te zien.

Het is onbekend wanneer Google de snippet wel en niet laat zien. Een testversie zal in de komende weken beschikbaar komen voor gebruikers in de Verenigde Staten in Labs, de nieuwe naam voor een verzameling van bètaproducten van Google.

Door Arnoud Wokke

Redacteur

10-05-2023 • 19:53

81 Linkedin

Reacties (81)

81
81
30
6
0
35
Wijzig sortering
Persoonlijk heb ik twee fundamentele problemen met generatieve AI als zoekmachine:

1) Het probleem van hallucination is nog steeds niet opgelost waardoor generatieve AI soms nog steeds plausibel klinkende onzin genereert. Alhoewel de AI informatie nu van sites kan trekken a la Bing, wordt deze in dat proces uit de context van de site getrokken. Hierdoor wordt het moeilijker voor de gebruiker om informatie op waarde te schatten doordat de AI misschien informatie over een medische vraag van de gerespecteerde Mayo Clinic en iets als mysticalessentialoils.com naast elkaar gaat zetten. Gebruikers kunnen doorklikken naar de context, maar onderzoek wijst uit dat mensen geen extra moeite doen tenzij de voorgeschoven informatie niet overeenkomt met wat ze al geloven, dus dit heeft de mogelijkheid om nogmaals een extra, ditmaal AI-powered echo-kamer op het internet te zetten.

2) Het voorschotelen van informatie op de Google homepagina zorgt dat mensen niet doorklikken naar de daadwerkelijke sites, en die afhankelijk zijn van hun advertentieinkomsten. Journalistiek heeft door het internet al een enorme klap gekregen, waardoor de kwaliteit van informatie en artikelen gemiddeld flink afgenomen is ten opzichte van het tijdperk dat iedereen een krantenabbonnement had. Veel meer publicaties moeten nu flink meer aan clickbait doen, en minder uren per artikel besteden om het hoofd boven water te houden. Als ze niet eens de kliks gaan krijgen van de informatie die ze produceren, waarom dan uberhaupt nog goede informatie produceren? Verwacht in de toekomst artikelen geschreven door generatieve AI, die de generatieve AI van Google gaat gebruiken als referenties, met alle problemen van dien (zie de hallucination van hierboven).

Het eerlijk verdelen van de baten van AI, ten op zichte van de schrijvers, kunstenaars, etc, die alle training data gemaakt hebben en blijven zorgen dat onze AI high-quality input heeft is een onopgelost probleem. Het zorgen dat generatieve AI daadwerkelijk ware informatie teruggeeft en niet hele volksstammen gaat misleiden is een onopgelost probleem. Desalniettemin blijven we maar vol gas vooruit gaan met AI, en als er professionals zijn die ethische bezwaren oproepen over generatieve AI, dan ontslaan we ze gewoon. Ik heb mijn bedenkingen bij de hele AI-revolutie, wat mij betreft mogen we wel even een keertje pas op de plaats doen.

[Reactie gewijzigd door jaxxil op 10 mei 2023 20:20]

Tijdens de Google I/O heeft James Manyika van google het ook over de gevaren over AI, o.a. misinformatie ect.
Begint circa bij; 1:09:14 https://www.youtube.com/watch?v=cNfINi5CNbY
Being bold on AI means being responsible from the start.
https://blog.google/techn...e-responsible-ai-io-2023/
@arnoudwokke

[Reactie gewijzigd door nFo op 11 mei 2023 10:04]

Timestamp 2:23:20 bestaat niet. Hier begint het verhaal van Manyika:
https://www.youtube.com/watch?v=cNfINi5CNbY&t=4154s
Meest relevante stuk IMO:
https://youtu.be/cNfINi5CNbY?t=4573
Ze hebben de video aangepast, zonder pre launch show, begint nu bij 1:09:14, bedankt.
Steeds vaker hoor je van mensen die het hele AI-gebeuren wantrouwen of beangstigend vinden, dat er nu actie ondernomen moet worden om tegengas te geven of dat AI zelfs volledig gestopt moet worden. Echter, de realiteit is dat het onmogelijk is om de AI-revolutie tegen te houden of zelfs te vertragen. Het enige wat we kunnen doen, is leren hoe we effectief en verantwoord met deze technologie kunnen omgaan. We moeten accepteren dat we een uitvinding niet ongedaan kunnen maken en ons richten op het benutten van de voordelen en het beperken van de risico's die AI met zich meebrengt.
Onzin dat je zoiets niet kan tegenhouden. Toen menselijk klonen en mensen genetisch manipuleren mogelijk werd, zijn alle genetici bij elkaar gekomen en hebben besloten dat dat dusdanig vergaande en onoverzichtelijke gevolgen had, dat dat (in ieder geval nu) niet gedaan ging worden. Nu wordt onderzoek naar menselijk klonen/genetisch manipuleren gezien als onethisch en dus onpubliceerbaar binnen de volledige discipline, en hoor je er niks over. Niet omdat het niet kan, maar omdat we besloten hebben het niet te doen. Dat waren maatregelen die veel verder gaan dan wat voor generatieve AI voorgesteld wordt, maar zelfs zoiets is dus mogelijk.

Het enige wat het voor AI onmogelijk maakt, is dat mensen graag willen dat het onmogelijk is, want een hele hoop naief techno-optimistische mensen willen zonder remmen vooruit, bijgestaan door een half leger wat het mantra "technologie kan je niet tegenhouden" blijft roepen. Maatregelen binnen het AI veld zijn prima mogelijk, we willen alleen niet.
Met dat verschil dat je in het klonen van mensen veel werk is zonder succesverzekering. Bovendien wordt genetische modificatie bij mensen wel degelijk onderzocht om ziektes te kunnen genezen, ook in NL
Bovendien wordt genetische modificatie bij mensen wel degelijk onderzocht om ziektes te kunnen genezen, ook in NL
Da's een beetje mijn punt. De discipline heeft als default "nee, doen we niet" ingesteld. Er moeten heel zwaarwegende redenen zijn om dat naar een ja te veranderen, zoals extreem ernstige genetische aandoeningen waar we precies van weten waar ze zitten en hoe ze werken. Dan wordt er, onder strenge voorwaarden, stapje voor stapje onderzoek gedaan.

Bij AI is de default "ja, doe maar lekker". Alles is publiceerbaar en maakbaar, zoals bijvoorbeeld mensen die AI facial recognition uitgerust hebben met ethniciteitsdetectie. Hoe gaat de wereld daar beter van worden? Maakt niet uit, het onderzoek wordt gewoon gepubliceerd.

Je hoeft niet zover te gaan als in de genetica dat alles by default een nee krijgt. Maar AI research heeft net zo goed conferenties waar de discipline bij elkaar komt en net als de genetici hun werkwijze en grenzen kan definiëren om alles een klein beetje de goede kant op te krijgen. Maar in plaats daarvan ontslaan bedrijven hun AI ethici die dingen voorstellen, en blijven mensen maar roepen dat ze niks kunnen doen terwijl ze niet eens een poging doen tot het minimale.
Maar klonen is iets zeer specialistisch dat door relatief weinig mensen in relatief weinig laboratoria/ instituten uitgevoerd kan worden. Daarnaast is het een strikt ingesteld wetenschappelijk wereldje: wanneer onderzoek niet in een peer-reviewed wetenschappelijk tijdschrift heeft gestaan bestaat het niet.
Wanneer daar een paar van de grote spelers/ onderzoekers samen afspreken (al dan niet onder druk van hun overheid) dat het klonen van mensen voorlopig nog niet uitgevoerd gaat worden en dat ze niet meewerken aan het reviewen van wetenschappelijke artikelen daarover, houdt het daarmee vrijwel op.

Bij AI is het vrijwel het tegenovergestelde. Iedereen die wat geld van een geldschieter los kan praten kan een paar mensen en genoeg serverruimte inhuren om aan de slag te gaan. Publiceren kan in een paar peer-reviewed wetenschappelijke tijdschriften, maar ook op tal van sites die de vorderingen en trends op het vakgebied bijhouden of zelfs op een eigen website en veel daarvan wordt als potentieel belangrijk/ interessant gezien. Veel code wordt zelfs gedeeld op sites als Github.
De groep die zich er mee bezig houdt en de hoeveelheid beschikbare informatie is gewoonweg te groot om het vakgebied van binnenuit te reguleren.
Je comment gaat over klonen, en daar heb je gelijk. Dat is een heel gedoe. Maar genetische manipulatie is dat al lang niet meer. Sinds CRISPR kost genetische manipulatie slechts basaal lab en een paar duizend euro. En ook dat wordt succesvol aan banden gelegd.

AI is ook afhankelijk van hun researchers, van peer review, publicaties en conferenties. De infrastructuur bestaat om dingen hier op een zelfde soort manier te reguleren door afspraken te maken binnen de discipline. Maar weer, een heel legio mensen wil gewoon niet.
De oorspronkelijke comment ging over klonen. Daar ging ik op door.

Ik denk dat in de genetica de academische wereld veel meer gefocust is op de traditionele wijze van wetenschap bedrijven, waarin iets pas waar is wanneer het in een peer-reviewed wetenschappelijk tijdschrift is gepubliceerd. Maar ik ben met je eens dat CRISPER binnen bereik gekomen is van iedereen met de juiste kennis en een klein beetje geld. Daar zal de komende jaren veel innovatie uit komen en ook de nodige ellende.

Informatiewetenschap is veel losser georganiseerd. Er wordt daar ook veel top-research in peer-reviewed wetenschappelijke tijdschriften gepubliceerd, maar ook heel veel in andere vakbladen en op vak-websites, eigen websites, etc. Daar is vanaf de start al veel minder regie op te voeren.
De oorspronkelijke comment ging over klonen. Daar ging ik op door.
Ik heb de oorspronkelijke comment zelf geschreven. Ik praat expliciet over beide, ik zou hem nog eens doorlezen. CRISPR-Cas9 bestaat nu al meer dan een decennium, en door voorzichtig onderzoek en ethische standaarden binnen de discipline zijn die ellendige gevolgen waar je over spreekt nog ver te zoeken.
Er word zoveel onderzoek gedaan naar optimalisaties, elke dag zijn er 10 nieuwe papers op arvix.

Verschil met medisch onderzoek is dat peer-review, double blind testing niet zo relevant is. Als nieuwe inzichten improvements brengen, dan zit het 1 uur na publishing al in alle open source projecten. Het gaat ontzettend hard en exponentieel, dit is niet te stoppen en de gevolgen zijn ook niet te overzien.

Ze hebben AI laten trainen op fMRI, en ze "kunnen" al gedachten lezen, echt bijzonder eng.
Aanrader: the AI dilemma op YT.
Ook genetische manipulatie is niet tegen te houden. De regels in de EU staan onder druk en zullen versoepeld worden, mede dankzij betere en nauwkeurige technieken. Genetische modificatie bij mensen zal wat langer op zich laten wachten maar ook dat zal, bijvoorbeeld bij zeer ernstige genetisch overdraagbare ziektes, ook niet zo lang meer duren.
Het blokkeren van GMO's werd en wordt voornamelijk ingegeven door onduidelijkheid over de gevolgen en naarmate daar meer gegevens van beschikbaar komen, kunnen de regels versoepeld worden.

V.w.b. AI is het reguleren een heel stuk lastiger. Je kunt gene editing redelijk goed omschrijven en daarmee reguleren. Bovendien is de medische wereld bijzonder goed georganiseerd en daarmee ook makkelijk te reguleren. Hoe zie jij praktisch gezien voor je hoe je de ontwikkeling en toepassing van AI gaat reguleren? Alleen al een juridisch goed bruikbare definitie van AI is volgens mij al lastig. Vervolgens: welke beroepsgroep moet je onder die regulering laten vallen?
Een ander erg lastig punt is dat, als je AI toepassingen als deze van Google en ChatGPT wil reguleren, dan zul je ook andere toepassingen, waar mensen de informatie verzamelen, verwerken en publiceren moeten aanpakken. Want wat is concreet het verschil tussen wat een mens oplevert aan informatie en wat een AI oplevert aan informatie? Welke van de twee is betrouwbaarder?

De overeenkomst tussen AI en gene editing is overigens dat beide enorm veel potentie hebben om ons leven een stuk aangenamer te maken, maar dat beide gepaard gaan met flinke angsten over de gevolgen.
AI gaat op korte termijn leiden tot een onbruikbaar internet. En niet alleen internet. Elke tekst, elke foto wordt onbetrouwbaar, want is mogelijk niet echt. Ik vrees het ergste.
Vooral wanneer de ene AI zich gaat baseren op de hallucinatie die een andere AI eerder op het internet gezet heeft.
Zo krijgen we een stapeling van hallucinaties en weet straks niemand meer welke informatie betrouwbaar is.
Omdat niemand alles kan weten geven sommige mensen journalistieke en wetenschappelijke instituties de autoriteit om uit te zoeken wat waarschijnlijk is. Die instituties gaan ook AI als hulpmiddel gebruiken, maar hopelijk komen er beroepsrichtlijnen die aangeven hoe de output van AI gecontroleerd moet worden.

Maar ook zonder AI is het grootste deel van wereldbevolking al sceptisch op het journaille en de wetenschap. Zie hoeveel mensen dwepen met dingen als homeopathie en religie of eenzijdige politiek-gekleurde nieuwsduiding tot zich nemen. Deze groep kan toch al niet bepalen hoe waarschijnlijkheid getoetst kan worden. Vooral een probleem van opvoeding en onderwijs vrees ik.

[Reactie gewijzigd door ari3 op 11 mei 2023 00:05]

Vroeger werden mensen die ergens meer over weten gezien als wijs en werd er naar ze geluisterd.
Tegenwoordig zijn mensen bang dat wanneer anderen ergens meer over weten dan zijzelf, dat betekent dat zij dom zijn. Niemand wil dom zijn, dus vinden ze het aantrekkelijker om te geloven dat die ander niet meer weet, maar dat die ander probeert hen te overbluffen en om duistere redenen probeert voor te liegen.
Is dat nu al niet dan?

Pak een foto van Oekraïense kindjes met een Oekraïense vlag achterop, photoshop hun armpjes vooruit, en je hebt ''bewijs'' dat Oekraïners nazi's zijn om zomaar een voorbeeld te noemen. Welke foto op Twitter is nu waar, en welke is bewerkt? Welke comments op Twitter zijn echt, en welke door bots getypt? Je zou daar theoretisch achter kunnen komen, maar daar ben je heel veel tijd mee kwijt.

Voor mij is Twitter/facebook als bewijsstuk al bij voorbaat uitgesloten.
Dat is wel waar alleen met photoshop ben je wel wat langer bezig. AI doet het binnen een paar seconden.
De barriere van toegang wordt veel en veel lager. Een overtuigende photoshop maken kunnen relatief weinig mensen en het kost tijd. Een AI kan dit binnen seconden en met enige oefening kan bijna iedereen zo'n opdracht starten.
Om goede foto's te maken met AI moet je ook wel enige kennis van zaken hebben. Je begint over controlnet en de gewone mens is al de draad kwijt.
Veel meer publicaties moeten nu flink meer aan clickbait doen,
Juist vanwege die clickbait ben ik blij met AI waardoor ik gewoon m'n informatie heb zonder me door meerdere clickbait sites te worstelen.
Maar die clickbait word ook opgenomen door diezelfde AI
Er is denk ik ook een fundamenteel probleem met de perceptie die mensen hebben van een LLM, want daar hebben we het hier over. Dat is geen waarheidsgetrouwe intelligente antwoord apparaat. Het is een tekst generator. Of wat er uitkomt waar is of niet staat er los van en is vooral afhankelijk van de ingevoerde dataset.

Als men er van uitgaat dat chatgpt altijd de waarheid spreekt, nooit onwaarheden verteld, dan snap ik je argumenten wel. Maar dat is nooit het doel geweest van een LLM.
En leg dat maar eens uit aan tante Jo met overgewicht. Je kan honderd keer zeggen dat een gezonder eet en beweeg patroon haar gaan helpen, maar de detox onzin sites gaan haar wat anders vertellen. Nu doet AI daar nog een schepje bovenop
Voor punt 1) weet ik nog net zo niet.. Er zijn nu al talloze websites waar klinkende onzin staat, en google probeert je daar met alle lieve naar toe te lokken want daar zstaan zijn advertenties. Het kom nu ook al nauwelijks voor dat ik van Google te horen krijg dat hij niets voor me kan vinden. Nu lepelt hij ook websites op uit zijn index die niets met mijn vraag te maken hebben.

Voor punt 2) Ik kan het moeilijk inschatten maar er zijn zowiezo veel websites die je naarbinnen lokken met een zootje onzin verhalen. Ik kijk wel een buitje uit naar een internet waarbij meer kwalitatieve content staat....
Je kunt ook gewoon stoppen met gebruik van Google.

Als webmaster voor ruim 15 jaar en ruim 2700+ websites onder mijn beheer is iedere (core/spam/generieke update) wel een verlies in traffic hier en daar. En de resultaten worden er echt niet beter op. Ik kan 10 voorbeelden geven op waarop adsense voorgetrokken wordt op organische keywords maar ook het organische "onverklaarbaar" bemoeilijkt wordt.

Google verdiend z'n inkomsten met primair ads voorschotelen, men was zo slim geweest om in de zoekmachine de resultaten te bieden. En ook daar tegen betaling uiteraard. Het verkwanselt de rest eromheen en alles draait gewoon om geld.
De ellende is dat echte content (en dus niet de gevonden/geleende content) ook afhankelijk is van advertentie inkomsten en derhalve moet concurreren met de ultra adverteerder...Google. Dat komt niet goed.

'We' hebben een hekel aan paywalls maar toch is het de echte oplossing. Inspanning zou gewoon betaald moeten worden. En dan niet via advertenties omdat praktisch niemand daar op zit te wachten.

En jij noemde het ook al: clickbait...een ander fenomeen wat bijzonder irritant is. En waar ik ook nog bang voor ben is dat deze generatieve AI straks artikelen gaat genereren (natuurlijk op basis van echte content) aangevuld met... clickbait...want dat is ook goed te genereren omdat op basis van statistiek kan worden bepaald wat goed werkt.
Een paywall is een goede oplossing voor een site die omzet nodig heeft om kwalitatieve en inhoudelijke content te kunnen maken zonder afhankelijk te zijn van de grillen van adverteerders.
Het is echter een slechte oplossing voor gebruikers die meer dan één of twee bronnen regelmatig bezoeken. Een paar euro per site per maand tikt al snel aan, wanneer je meerdere sites regelmatig bezoekt voor bv. algemeen nieuws, nieuws op een bepaald vak-/ interessegebied, hobbies, ontspanning, etc.

Ik heb er voor gekozen om voor Tweakers te betalen, hoewel hier niet eens een paywall is, maar wanneer ik voor alle sites waar ik regelmatig kom zou moeten betalen, zou ik daar toch keuzes in moeten maken, omdat dat gewoon te duur gaat worden. Om nog maar te zwijgen over zeer specifieke sites die ik sporadisch bezoek en waar ik dus helemaal niet meer zou komen wanneer die achter een paywall verdwijnen. Het gebeurt nu al te vaak dat ik via een link op een algemene nieuws-/ interessesite bij een paywall kom. Vaak gaat het me enkel om dat ene artikel en heb ik dus überhaupt geen interesse om er voor te betalen. En ik ga me ook niet inschrijven om drie gratis artikelen te mogen lezen.
Ja, daar heb je gelijk in. Teveel bronnen - teveel abonnementen - teveel kosten/teveel gedoe.
Maar als het meer gebeurd dan ontstaat er hopelijk een soort van bundeling van aanbieders van artikelen omdat dit verdienmodel gewoon niet meer houdbaar is. Zodra iets doordrenkt van advertenties blijven gebruikers weg / blocken alles wat ze kunnen en dat krijgen de adverteerders ook door en die stoppen dan met adverteren.

Het is een lange weg maar... "This is the way"... :9
Hallucination gaat voor AI niet opgelost worden zolang de AI morality committees nog bestaan. Het probleem is dat de AI wordt getraind om altijd antwoord te geven no matter what. In principe wordt het antwoord "ik weet het niet" als fout gerekend. Als men de AI correct zou trainen voor goede antwoorden, dan zou de AI details terugvragen. bijvoorbeeld "hey, ik ben onzeker of 1+3 = 5, kun je dit nachecken voor mij, dan kan ik daarmee verder".
waarom kan dit niet? omdat de AI dan kan worden gezien als "power seeking", dan krijgt de AI de mogelijkheid/wordt aangezet tot informatie verzamelen buiten zijn eigen kennis. Dit kan problematisch zijn want als de AI bvb "slecht" zou zijn zoals in alle neppe holywoodfilms, dan zou de AI ons kunnen misleiden om bvb verboden informatie te delen of terrorisme uitvoeren ofzo. bvb "ik kan het antwoord niet zelf berekenen, voer dit script voor me uit zodat ik kan zien wat het resultaat is" en dan hackt dat script je pc bijvoorbeeld.
Waar heb je het over? Bing heeft internettoegang en AutoGPT kan zelfstandig acties ondernemen.
Als men de AI correct zou trainen voor goede antwoorden, dan zou de AI details terugvragen. bijvoorbeeld "hey, ik ben onzeker of 1+3 = 5, kun je dit nachecken voor mij, dan kan ik daarmee verder".
En wat wanneer baldadige journalisten/ onderzoekers/ bloggers/ pubers/ gebruikers als antwoord teruggeven dat het antwoord klopt? Wat dan?
De AI is nooit zomaar 'slecht' van zichzelf - het gaat idd mis als de ondervager hem gaat voeden met hints die of echt onjuist zijn om de AI onbruikbaar te maken of antwoorden gebaseerd op vooroordelen.

HAL in 2001 was ook niet slecht - wel gevaarlijk... en HAL was niet eens gevoed met onjuiste antwoorden of racisme - wel met strijdige belangen.
Alhoewel de AI informatie nu van sites kan trekken a la Bing, wordt deze in dat proces uit de context van de site getrokken. Hierdoor wordt het moeilijker voor de gebruiker om informatie op waarde te schatten doordat de AI misschien informatie over een medische vraag van de gerespecteerde Mayo Clinic en iets als mysticalessentialoils.com naast elkaar gaat zetten.
AI snapt niets van de tekst die het op websites vindt (net als het merendeel van de internetgebruikers heb ik soms wel eens het idee) en kan daardoor ook niet op warde schatten of een samenvatting uit één of meerdere bronnen juist is.

Bij een gebruiker die in de alternatieve/ zweverige hoek zit zal de site van mysticalessentialoils.com al veel hoger in de resultaten staan dan de site van een academisch ziekenhuis.
maar waarom gaat men nu eens die "AI" niet gebruiken voor waar het nu al zeer goed in is?
De Google Assistent!

Dat ding is nog zo dom als een achterdeur, terwijl het perfect verstaat wat je zegt.
Ik begrijp ook niet waarom ze Google Assistent niet gewoon uitbreiden in plaats van weer een apart iets te gaan uitvinden. Gaat één van beide later weer een stille dood sterven?

[Reactie gewijzigd door Matomatisch op 10 mei 2023 20:19]

De stille dood is bijna een trademark van Google inmiddels...
Doodzonde hoe ze dingen killen die best potentie hebben
Een aanzienlijk deel van die stille dood situaties zijn uiteindelijk wel opgenomen in andere producten, alleen is dat niet altijd even zichtbaar, of handig (voor ons).
Tsja, dat zal vast zo zijn, dat weet ik niet
"best potentie" is niet genoeg.

Strategie van Google, en veel andere techbedrijven is marktdominantie of stoppen. Leestip: Zero to one van Peter Thiel, over agressief monopoliegedrag als verdienmodel.
Pff ja alsjeblieft zeg. Het lijkt ook wel echt alsof Assistant met de jaren alleen maar dommer is geworden. 8)7
Dat komt echt wel maar eerst zijn de Google diensten waar ze daadwerkelijk een cent aan verdienen aan de beurt. Dat is neem ik aan, logisch.
Ik gebruik al een tijdje https://perplexity.ai als zoekmachine. Levert ook een samenvatting met linkjes naar de bronnen. Ben tevreden met de resultaten. En geen advertenties zoals Google die waarschijnlijk wel gaat tonen.
Wat is het verdienmodel hierachter? Nu misschien geen advertenties maar er moet toch iets komen wat de kosten ervan betaald?
Ik heb het perplexity maar eens gevraagd:
What is the revenue model of Perplexity AI?
Perplexity AI's revenue model is not explicitly stated, but the company plans to keep its existing service free and hopes to begin making money by selling service tiers containing advanced features for users that establish an account and sign in. The company recently closed a Series A funding round led by New Enterprise Associates with participation from Databricks Ventures and angel investors, including former GitHub CEO Nat Friedman and Meta chief scientist Yann LeCun. According to a Reddit user, Perplexity AI may sell statistics or anonymous search queries to businesses or marketing agencies based on what people are searching. Perplexity AI is part of a wave of startups trying to remake search with artificial intelligence, and it hopes to carve out a slice of the massive web search market that Google has so thoroughly dominated for 30 years.
Kortom: uiteindelijk gaat het ook weer over het verzamelen en verkopen van data. En mogelijke volgen dan ook weer advertenties. Dus (zoals altijd met gratis diensten) oppassen met waar je op zoekt, want jij bent het product. Op de privacy pagina van perplexity staat overigens wel dat men geen persoonlijke info verkoopt of deelt met derde partijen, behalve met service providers en analytics. En daar staat dan <irony>google analytics</irony> 8)7

Er zijn nog een paar andere alternatieven (https://geekflare.com/best-ai-search-engines/). Een daarvan, https://neeva.com heeft een beperkte gratis versie, maar voor normaal gebruik ben je ruim $4 per maand kwijt. Dan koop je een product.
Wat me ergert is dat onderzoekers al jaaaren geleden waarschuwden voor de negatieve kanten van AI, en dat we daar heel voorzichtig mee moeten zijn. En nu is het eindelijk zover dat het 'explodeert', en voila, alle veiligheidsmaatregelen aan de kant geschoven, want geld. Geld geld geld geld geld.

Blegh. We zijn ook gewoon gedoemd onszelf om zeep te helpen he? We zijn gewoon niet een bijster superieure diersoort. Het is wat het is..
Wat is het alternatief? Wachten tot een andere partij ermee komt en het openbaart?

OpenAI is begonnen met maanden interne review, om de wereld er daarna aan bloot te stellen. Sam Altman gaf aan dat ze het bewust openbaren omdat ze zelf nooit intern alle edge cases dicht kunnen timmeren omdat het zo'n enorm brede technologie is. Juist door mensen ermee te laten spelen en ze duidelijk te maken dat het een experimentele techniek is die risico's met zich meebrengt vinden ze die zwakte wel.

Precies die strategie nemen Microsoft en Google nu ook over. Gaat dat zorgen voor blunders aan de kant van de AI? Ongetwijfeld. Stuurt dat de technologie naar een betere richting? Ongetwijfeld!

Ik denk juist dat het hele mooie kansen brengt op het gebied van polarisatie. Discussies en stellingen condenseren tot 140 woorden zorgt voor extremen. De vraag stellen aan ChatGPT geeft je nu al een genuanceerder antwoord dan ik tot dusver ben tegengekomen. "There's discussion about this but some people think A, others think B." maakt dat we nuances verkennen in plaats van zwart wit, of wij zij denken.

[Reactie gewijzigd door TwistedMindNL op 10 mei 2023 20:14]

OpenAI is juist veranderd in ClosedAI, dus dat ze daarin nog wat pleisters weten te plakken om dingen niet al te vreselijk te laten verlopen is leuk, maar ik zou ze nou ook weer niet de loftrompet toespelen.

Ik vind het uitermate kwalijk dat we geen echte OpenAI meer hebben. Waarom richten overheden zich niet op zoiets? Dat is de perfecte overheidstaak. (Retorische vraag trouwens, antwoord: we zijn te neoliberaal)


*MIJN GOD DIE DOWNVOTES. Helemaal naar de tering gebrainwashed |:(

[Reactie gewijzigd door ProperlyDecent op 10 mei 2023 20:53]

De open source community is anders de laatste tijd aan de haal gegaan met LLaMA en evenaart Bard qua performance:

https://preview.redd.it/1...a40f18451def9f4d186205d55

https://lmsys.org/blog/2023-03-30-vicuna/

Volgens mij hebben we dus wel degelijk een "open" AI maar is het niet 1 organisatie...
Heb https://chat.lmsys.org even geprobeerd maar ik denk dat het systeem maar wat worden bij elkaar loopt te zoeken. het het is totaal niet correct met wat ik vraag!
Dat is een zeer goeie zaak, al vind ik het typisch dat we daar zo weinig van horen als het zo goed is. Ik ga er eens naar kijken :)
Als je de presentatie had gezien dan had je gemerkt dat ze hier meerdere keren expliciet op ingaan. Graag even de bron checken voordat je zulke ‘ergernissen’ uit.

Daarnaast, je moet niet bang zijn voor de ‘grote jongens’ maar voor die puber in moeders kelder die even een AI virus schrijft voor de ‘lolzzz’. :Y)
We zijn gewoon niet een bijster superieure diersoort.
De massa is nooit slim... en de massa levert geld op...dus het houdt zichzelf in 'leven' omdat we een puur kapitalistisch systeem hebben.
Ga maar na:
iemand heeft veel geld => de massa bestempelt hem als 'slim' en/of succesvol
hoe zoeken velen hun partner? => een succesvol persoon
hoe kom je aan macht? => door veel geld
Wat wil een kind later 'worden' (dus wat willen ze laten doen) => rijk worden

De maatschappij is extreem gefocussed op geld. Vandaar dat we deze domme AI omarmen - het levert geld op.

Dus ik denk dat we als mens (dus als soort) best slim zijn maar dat we vanwege die financiele incentive dat nogal eens op de achtergrond zetten.
Je laatste zin vat het mooi samen, maar ik wou dat we daar eens een keer onderuit wisten te stoeien. Dezelfde financiele incentive brengt ons in sneltreinvaart richting ondergang (denk bijv. aan climate change), maar we zijn zo verslaafd/gehersenspoeld dat we er aan vasthouden.
Dat gaat op voor vrijwel alles. Geld is toch soort van overleven en een mens zal er alles aandoen om dat vol te blijven houden.
En daarom is kapitalisme niet houdbaar. Geld is gewoon niet een incentive waarmee we op lange termijn kunnen overleven als soort.
Wat dan wel? Veel alternatieven die beter werken zijn er niet. Reguleren kan gewoon, ook binnen een kapitalistische samenleving.
Waarom doen we dat dan niet?

Er zijn wel degelijk betere alternatieven, richting het socialisme. Maar die zijn kapotgemaakt met propaganda, dus elke discussie waarin dat wordt geopperd eindigt met dezelfde onzinnige tegenargumenten.

[Reactie gewijzigd door ProperlyDecent op 10 mei 2023 21:50]

Dat is een goede vraag. Geen idee waarom regelgeving eigenlijk altijd reactief tot stand komt.
Omdat we in het westen veel neoliberale regeringen hebben die vriendjes zijn met het bedrijfsleven.
Welke alternatieven? Ik heb nog nooit een plausibel alternatief gehoord.
Welke alternatieven? Ik heb nog nooit een plausibel alternatief gehoord.
Al aan Bard of chatGPT gevraagd?

En als die er niet uitkomen, volg dan de Youtube kanalen van Second Thought of DIEM25.
Er wordt inderdaad redelijk wat 'gereguleerd'. Ik ben meer dan 50% van mijn verdiende centen op het einde van de maand kwijt om te 'reguleren'. Bij hetgeen ik koop mag ik dan nog eens 21% bijkomend helpen reguleren met de BTW. Er wordt al teveel 'gereguleerd'.
Haha ja ja... en zonder belasting worden we dan weer een soort derde wereldland als Amerika. Ik ben blij met waar ik leef. Al zijn er wel verbeterpunten :)
Ah, dit land (België) is ondertussen tot dat niveau gedaald. Afspraak met de tandarts? Heb gerust maar 3 maanden geduld. Operatie aan de knie nodig? Hoop maar dat je minder dan 50 jaar oud bent. Droogtrommel aan en tegelijkertijd een eitje koken? Heel de maand verhoogd tarief voor elektriciteit.

Ik vind echt niets uit hé!
Je onderhandelt je loon uit (of laat dat door een vakbond doen) op wat je netto in handen krijgt. Of dat 90%, 50% of 30% is van wat jij je werkgever kost is daarbij voor jou volstrekt irrelevant. Jij verdient wat je in je handen krijgt.
De AI ervaring lijkt wel behoorlijk dominant aanwezig te zijn. Ik ben benieuwd wat dit gaat betekenen voor webtraffic van Google naar andere sites. Gaan Google's shopping resultaten bijvoorbeeld niet veel te dominant worden?
Ik beheer een hoop websites en ik vind het jammer dat je bij iedere update van Google verder naar beneden moet scrollen om nog een website tegen te komen.
In de Keynote wijzen ze er juist op dat ze duidelijk kenmerk leggen op bronverwijzing en doorlinken gezien mensen bij voorkeur normale websites willen lezen.
Dus in plaats van de juiste zoekvragen kunnen formuleren, zullen we nu prompt engineering moeten gaan doen om zinvolle zoekresultaten te krijgen. En zoals jaxxil en ProperlyDecent hierboven al aangeven is het dan nog maar de vraag wat voor hallucinaties je krijgt, en is het de volgende klap die Google uitdeelt aan websites waar veel moeite is gestopt in het maken (niet 'genereren') van goede content.

Voor mij is dit het moment om https://kagi.com/ serieus te gaan proberen.
Hopelijk slaat het aan en annuleren ze de functie niet binnen een jaar zoals andere Google producten.
De functies die ze vandaag aankondigen zijn heel experimenteel dus ga er maar van uit dat ze aan heftige ontwikkeling worden blootgesteld (lees, veel veranderingen). Dit is Google (en veel software bedrijven) normaal. Move fast, break stuff. Dat is niet voor iedereen en waar Microsoft zijn grote geld vandaan haald (legacy apps). Maar ook bij hun zie je dat terug in de ‘moderne’ cloud apps.
Ik ben echt helemaal niet overtuigd dat search en question-answering volledig door elkaar gooien een goed idee is. Het heeft niet dezelfde doelstelling, ik hoop vooral dat de gebruiker de keuze blijft houden om het soort resultaat te krijgen dat ze nodig hebben.
Hier een vergelijking tussen chatGPT en Bard: https://link.medium.com/yW9MN7oeHzb

Als dit inderdaad blijkt te kloppen (meer onderzoek nodig) is het best teleurstellend voor Google.
Google heeft gewoon hetzelfde gedaan als Kodak: een revolutionaire nieuwe technologie in de doofpot gestopt om het verdienmodel te beschermen.

Tja.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee