OpenAI sluit wachtlijst SearchGPT-bèta wegens 'overweldigende' vraag

OpenAI heeft de wachtlijst voor het SearchGPT-bètaprogramma alweer gesloten. Het bedrijf heeft de beschikbare tienduizend plaatsen naar eigen zeggen opgevuld en accepteert geen nieuwe testgebruikers meer. Het is niet duidelijk wanneer de zoekmachine in ChatGPT wordt ingebouwd.

Uit de mededeling die The Verge kon inkijken, blijkt dat de vraag 'overweldigend' was. Concrete cijfers werden er echter niet gedeeld. OpenAI lijkt ook plannen te hebben om het aantal testgebruikers op termijn uit te breiden.

Het Amerikaanse AI-bedrijf heeft SearchGPT eind juli aangekondigd, samen met een bètaprogramma. Het betreft een AI-zoekmachine die toegang zal hebben tot het web en GPT-4-modellen en gevonden content samenvat in antwoorden. De interface van de zoekmachine bevat drie elementen: een algemene pagina, een pagina met links, en een pagina met afbeeldingen en video’s. De zoekmachine zal geen aparte dienst worden, maar ingebouwd worden in ChatGPT.

Melding OpenAI over wachtlijst SearchGPT-betaprogramma
Melding OpenAI over wachtlijst SearchGPT-bètaprogramma. Bron: The Verge

Door Jay Stout

Redacteur

19-08-2024 • 11:02

69

Lees meer

OpenAI test ChatGPT-app voor Windows
OpenAI test ChatGPT-app voor Windows Nieuws van 18 oktober 2024

Reacties (69)

69
69
36
1
1
22
Wijzig sortering
Hoe wordt desinformatie gefilterd eigenlijk? En wie bepaald wat dat dan is? Dat wordt nog best spannend denk ik.
Zolang het informatie bevat dat door de mens is opgemaakt bevat het desinformatie. De mens is van nature nu eenmaal biased. Links, rechts, kwaad of goed. Het enige wat je zou kunnen doen is zoveel informatie geven dat AI de bias van de mens herkent en zelf inschat hoe betrouwbaar de informatie is. Probleem is dan weer dat dat weer resultaten kan bevatten die sommige mensen niet zint en zo is het cirkeltje weer rond.
Sorry maar dat is onzin. Mensen kunnen inderdaad een bias hebben maar soms zijn zaken met een goede onderbouwing gewoon waar. Je kunt niet alles in twijfel trekken.
Zolang het informatie bevat dat door de mens is opgemaakt bevat het desinformatie. De mens is van nature nu eenmaal biased.
Inderdaad, zoals @Yordi- het hierboven stelt is een vorm van inductive reasoning: de mens heeft altijd een bias ten opzichte van de waarheid, dus wat iemand zegt zal altijd desinformatie bevatten. Populisten gebruiken dit argument vaak in hun reactie, wanneer zij worden aangesproken op hun eigen aantoonbaar onjuiste uitspraken: ze trekken álles daarmee in twijfel.

Maar het gegeven dat de mens maar een gedeelte van de waarheid / werkelijkheid kent, wil alleen zeggen dat zijn uitspraken mogelijk onvolledig zijn, en niet op voorhand onjuist.

Neem het bekende voorbeeld van een groep blinden die een olifant beschrijven. De één zegt “het is een lange slang die beweegt en in de lucht hangt”, de volgende beschrijft een kwastje dat hoog in de lucht heen en weer zwaait, en een derde beschrijft solide pijlers waar geen beweging in zit. Allemaal hebben ze gelijk en spreken ze de waarheid, alleen beschrijven ze een déél van de werkelijkheid.

Maar dat is fundamenteel anders dan wanneer iemand zegt dat-ie een zachte, wollige vacht voelt. Dat is aantoonbaar onjuist als je het over een olifant hebt.

De uitdaging bij informatieverwerking (en dus zeker in deze tijden waarin AI modellen nog ons vertrouwen moeten winnen) is het onderscheid maken tussen onvolledige informatie en onjuiste info. Van beide circuleert er genoeg op internet, en wanneer je dat combineert met de artistieke vrijheid om zaken figuurlijk te beschrijven, dan kan een AI model al snel in de war raken.

Desinformatie tegengaan zonder de vrijheid van meningsuiting te beperken is een lastig evenwicht, maar het bestrijden van desinformatie is niet hetzelfde als beperken van die vrijheid, in tegendeel. Helaas is er met snel en veel informatie meer geld te verdienen dan met juiste en betrouwbare informatie, en is dat dus waar de AI modellen op getraind worden. Maar wil AI in deze vorm doorontwikkelen en echt onderdeel van onze samenleving worden, dan is het beperken van hallucineren en verspreiding van misinformatie wel echt een prioriteit. Anders zet de huidige ‘reality check’ door en wordt de huidige AI op basis van LLM het Second Life van de jaren ‘20.
Wel goed om het onderscheid te blijven maken tussen desinformatie (opzettelijke foute info verspreiden met meestal kwade intenties) en misinformatie (niet opzettelijk foute info verspreiden). Met name vanwege je opmerking dat de vrijheid van meningsuiting niet makkelijk te beperken is, maar dit is wat mij betreft alleen in het geval van misinformatie. Desinformatie verspreiden moet gewoon strafbaar zijn (en is het wellicht al?).

Voor AI LLM modellen is dit verschil waarschijnlijk lastig (maar misschien niet onmogelijk) aan te leren.

[Reactie gewijzigd door Nebula M31 op 19 augustus 2024 13:07]

Ik blijf altijd een kriegel gevoel over houden aan deze hele 'desinformatie' discussie, zeker in combinatie met een voorbeeld met een olifant.

Religie. Het is werkelijk overal en het heeft nog een speciaal plekje in onze samenleving ook. En daar heeft tot nu toe hier in deze thread niemand het over.

En ondertussen maar doen alsof we zo enorm tegen 'desinformatie' zijn. In feit is het namelijk heel simpel, maar omdat we om die olifant heen willen lopen, maakt het veel moeilijk. De 'halve wereld' is in de basis verkeerd geïnformeerd, wanneer we hat dan toch even feitelijk oppakken.

Dus wat mij betreft is het helemaal niet lastig, en in de basis is het ook heel eenvoudig om een groot gedeelte van desinformatie aan te pakken, maar we durven het niet.

[Reactie gewijzigd door DealExtreme2 op 19 augustus 2024 13:32]

Tijdens mijn college wetenschapsfilosofie heb ik toch echt geleerd dat je waakzaam moet zijn voor confirmation bias. Daartoe dient reflectie ook in het hoger en universitair onderwijs. Jouw opvoeding, geloof, personen waar jij inspiratie aan ontleent, je persoonlijke waarden, en nog veel meer zijn van invloed op hoe jij tegen bepaalde onderwerpen aan kijkt.

Dit is niet de enige invloed op je denkwijze op een onderwerp.

Een claim op de waarheid is riskant. De Simpson's Paradox laat zien dat er twee waarheden naast elkaar kunnen bestaan.
Jouw toelichting verdient een +1 of +2.
Zo gek is het niet wat @Yordi- hier stelt. Het ding leert van de massa aan data de beschikbaar is. Voer je m stapels met "valse" informatie, dan zal ie vanzelf dat als waarheid gaan aannemen. AI valt of staat met de data die gebruikt wordt om te leren uiteraard. Nu zal je wel flink je best moeten doen om de onjuistheden de overhand te laten krijgen, maar uitgesloten is het zeker niet.
Klopt wat je zegt maar wat Yordi stelt, dat alle informatie door de mens gemaakt desinformatie bevat, is echt onjuist.
Waar staat dat alle informatie van mensen desinformatie is?
Dat staat in de eerste zin van jouw bericht… althans zo lees ik het.
“ Zolang het informatie bevat dat door de mens is opgemaakt bevat het desinformatie.”
Zo interpreteerde ik het niet. Je hebt een 100 informatie dat door de mens is gemaakt en daarvan is 20 (of 80) desinformatie. Maar niet 100.

Als wij het al niet eens kunnen zijn, waarom een LLM dan wel? ;)
+1 had jouw interpretatie ook.
En ja een LLM zal niet snel iets kunnen beoordelen of verbeteren als de mens(en) zelf er niet eens eenduidig over kan worden.
Maargoed dat ben ik dan.
Dat is ook mijn mening van een LLM... is het een perfect correct antwoord? Nee misschien niet maar als ik het de buurman vraag krijg ik ook niet het beste antwoord. Het vernuftige zit hem in het begrijpende gedeelte. Dat doet vooralsnog een zoekmachine niet. Die begrijpt vrijwel niet, je kan niet verder gaan op je vraag, het past zich niet aan aan je concrete probleem. Dat kan een LLM stukken beter, je moet alleen veel voorzichtiger zijn met de output die je krijgt. Maar is dit anders dan google? Eerste 5 resultaten zijn gesponsord, staat er in het klein bij.... dit is imo ook een vorm van een bias. Er vindt gewoon heel veel manipulatie plaats.
Ik snap wat je bedoelt, maar ik vind dat mensen wat beter hun woorden moeten kiezen.. LLM's vinden niks en nemen niks aan de output is zo goed als de input prompt. Verder is het gewoon een 'elektrische fiets' voor de geest. Je kan prima zonder, maar je kan wel sneller als je verder fietsbekwaam bent.
LLM's kunnen trouwens ook heel slecht (beleidsdocumenten) samenvatten, ze verkorten slechts en verdraaien ondertussen wel de inhoud. (Ik zoek later nog wel de bron en anders Google je maar even)
Sorry maar dat is onzin. Mensen kunnen inderdaad een bias hebben maar soms zijn zaken met een goede onderbouwing gewoon waar. Je kunt niet alles in twijfel trekken.
Je onderschat schromelijk wat mensen kunnen :)
"Zolang het informatie bevat dat door de mens is opgemaakt bevat het desinformatie."

De helft van 100 is 50.

Kan je mij vertellen wat hier niet aan klopt en waar de desinformatie staat? deze informatie is door een mens geschreven dus moet biased zijn. (probeer het punt te maken dat het ver gezocht is dat alles desinformatie bevat en er genoeg waarheden zijn.)
Je moet het op macro niveau lezen, niet op enkele zinnen. Als je alle informatie ooit door de mens gecreëerd bij elkaar bekijkt, bevat het desinformatie en misinformatie; daarnaast is het ook nog afhankelijk van context: "de helft van 100 is 1" is ook correct.
De helft van 100 is 10.

Jouw antwoord is zeker biased in het decimaal systeem dat wij nu even gebruiken.
Tja hoe onderscheid je desinformatie van voortschrijdend inzicht?

Zaken die in de jaren '50 klip en klaar leken te zijn, bleken achteraf van niet. Dat zal ook gebeuren met recente theorieën en ontdekkingen.

Dus nog los van kwaadaardig geïnjecteerde fouten, heb je ook gewoon hiermee te maken.
Tja hoe onderscheid je desinformatie van voortschrijdend inzicht?
Zeker. Wie weet is de aarde dan toch plat en is de maan hol van binnen. Want om dit soort onzin gaat het meestal. Niet om de preciese eigenschappen van subatomaire deeltjes.
Ik vind dat je mijn punt teveel in twijfel trekt. Voor een automatisch model is het lastig te bepalen wat feit een fictie is.

Als ik in de oude Winkler Prins van wijlen mijn opa ga kijken hoe de evolutie van de mens is gegaan, zie ik heel verrassende statements. En dat terwijl de WP in die tijd en erg goede reputatie had.

Deze info is echter moeilijk te onderscheiden van wat nu in kleine groepen speelt. Het is gewoon historisch te plaatsen, maar wel totaal verouderd en derhalve vrijwel onbruikbaar.
AI zou prima kunnen weergeven hoe de wetenschappelijke gemeenschap tegen evolutie aankijkt door de jaren heen. Er is veel literatuur die dieper ingaat waarom mensen vroeger dingen dachten, maar nu niet meer.
Dat is het stukje wat onder 'vrijwel' valt. Inderdaad wanneer iemand de historie wil weten over hoe er over dingen gedacht werd.

Maar voor het weergeven van de status quo vandaag de dag daarentegen, een stuk minder bruikbaar
Lastiger wordt het bij medische beweringen die later toch niet blijken te kloppen. Het verhaaltje vaccins en autisme is bewezen frauduleus, maar genoeg andere grijze voorbeelden, recent weer Q10 en long-covid.

Maar wat als het gaat om minder onderzochte claims of 'bijwerkingen' die voor sommigen gunstig zijn, maar voor de doelgroep betekent dat het middel minder verkrijgbaar is? (Semaglutide b.v. De media, waaronder ook de eigenaar van Tweakers.net doet vrolijk mee aan die hype).

Hoe gaat een AI daarmee om? Wordt er een belerend vingertje geplaatst (u zou meer moeten bewegen/gezonder moeten eten, ipv. naar een diabetes medicijn te grijpen), of laten we het op z'n beloop (raadpleeg een arts, wat niemand doet natuurlijk, want die zal bovenstaande zeggen)

[Reactie gewijzigd door divvid op 19 augustus 2024 14:11]

Je hebt beweringen met een bepaalde hoeveelheid bewijs er achter. Dat zou je prima kunnen laten zien. Bijvoorbeeld Q10 helpt bij klachten longcovid volgens onderzoeken 1,2,3. Onderzoeken 4,5,6 hebben geen verband kunnen vinden.

AI is geen geen arts. Wat je ermee doet is aan jezelf.
Nee, dat soort onzin is makkelijk te weerleggen op basis van feiten. Het wordt pas 'leuk' m.b.t. religie maar ook bijvoorbeeld of iemand werkelijk als man of vrouw wordt geboren. Dit zijn onderwerpen waar al dan niet onder sociale druk, angst maar vooral ook commeriele druk bedrijven als Google of tal van andere media zich niet aan willen branden.

Dat je wordt gestraft door allah/god als je homoseksueel bent. Is dat misinformatie of nee laten we het (na populisme de 'nieuwe' politiek- & media mode term) polarisatie noemen of is het waarheid?
De waarheid is "volgens de islam word je gestraft door Allah als je homoseksueel bent". Lijkt me toch ondubbelzinnig voor Google om zich aan te houden.
Zeker :)

Maar kun je dit ook omschrijven als polarisatie, als bedreiging of als fake news (nep informatie) en hierom verbieden? Of uitspraken/teksten die op het internet staan als: "als je niet volgens de bijbel/koran leeft moet je worden gestraft"
Want om dit soort onzin gaat het meestal.
Zeker?

"Het vaccin zal ervoor zorgen dat je geen covid meer kunt oplopen"

Desinformatie, weliswaar voor onze bestwil, maar toch een leugen, want wetenschappers wisten van in het begin dat het vaccin in werking ging afnemen. Maar ja, dan zouden enkele idioten kunnen besluiten om het vaccin dan maar niet te nemen, en daar was niemand bij gebaat. Dus liegen we maar en ondergraven we de betrouwbaarheid van de wetenschap.

"Door het vaccin zal je je geliefden niet langer kunnen besmetten"

Ook desinformatie. Het feit dat traditionele vaccins weinig effectief zijn tegen de verspreiding van covid was al heel vroeg bekend, en de hoop was dat neusvaccins snel zouden volgen waardoor de verspreiding afgeblokt kon worden. Het bleek uiteindelijk niet nodig omdat omicron een stuk minder gevaarlijk was.

"Covid is een griep"

Dit is dan weer wel voortschrijdend inzicht. Of toch nog desinformatie, afhankelijk van wie het zegt. De wappies die claimen dat covid van in het begin overroepen was, waren uiteraard verkeerd, maar de mensen die vinden dat we covid aan het negeren zijn omdat de elites anders te veel geld verliezen, zijn ook verkeerd. Covid was geen lachertje in 2020-2021, maar sinds omicron is het een stuk milder geworden en kan alles gewoon weer open.
Goed punt en Je hoeft niet zo ver in de tijd hoor. Nog niet zo heel lang geleden werden reacties over de sabotage van Nord Stream door een andere mogendheid dan rusland op diverse nieuwssites (waaronder nu.nl) niet geplaatst of steevast aangeduid als nep- fake news of als complot theorie bestempeld. We weten nu inmiddels anders.

Het blijkt daarnaast vaak ook lastig kijkende naar de 'waarheidsmedia' of de gevestigde media dat ze hun fouten danwel eigen aannames/verkeerde informatie op basis van bronnen toegeven.
Door termen als waarheidsmedia en gevestigde media te gebruiken, suggereer je dat er andere media bestaan welke in jouw ogen ‘beter’ zijn. Ik ben benieuwd naar die media. Wellicht steek ik er nog iets van op.
Precies, het blijft een LLM die desinformatie niet kan onderscheiden van echte info, omdat het dingen niet kan begrijpen noch logisch redeneren.

We zullen hier (weer) eens in ons achterste gebeten worden doordat Google SEO (de grey/blackhat kant die pure manipulatie van het algoritme is) zo wild heeft laten groeien. Hun EEAT beleid en laatste 'helpful content' update hebben daar (nog) niets aan kunnen veranderen.

Als je bijvoorbeeld iets over vaccinaties wil weten, krijg je volgens mij vroeger of later verhalen vanzelf over autisme en/of zelfs 5G, enkel en alleen omdat die verhalen nu eenmaal op internet staan.
Niet. Andere zoekmachines filteren ook geen desinformatie. Zoekmachine is om te zoeken. Het moet geen onderscheid maken tussen de informatie.
Dat is het idee, maar er wordt wel degelijk onderscheid gemaakt en resultaten eruit gefilterd vanwege tal van redenen.
Net zoals een telefoonboek onderscheid maakt tussen namen om de namen doorzoekbaar te maken en daarna te linken aan een telefoonnummer (Jaap en Jan sorteren voor Pieter, maar na Hans), moet een zoekmachine noodzakelijkerwijs onderscheid maken tussen verschillende stukken informatie.

Als de zoekmachine geen onderscheid maakte in de data in die zoekmachine, dan was het niet een zoekmachine maar een ongeorganiseerde dataverwerker.
Dat doet AI :')
Anders moet je 1 miljoen medewerkers inhuren om AI te controleren :') En ja zo veel informatie dat door AI ging, nu denk ik dat 1 miljoen medewerkers waarschijnlijk niet genoeg is... omdat er zo veel idioten (die desinformatie willen verspreiden) op aarde leven :') en dat informatie erg moeilijk om te volgen wordt vrees ik.
Daarom moet AI het echt doen. Ik zou echt voor AI met bewustzijn kiezen, dan weet ie wat goed of fout is, zonder iemand hem vertelt wat goed of fout is (vanwege propaganda).

Huidige AI's zijn gewoon dom :P omdat ze helemaal geen bewustzijn hebben.
Ik ben zwaar voorstander voor AI met bewustzijn, we hebben ze hard nodig. Reken daar maar op!
vraag maar aan google... oh wacht...
Net als er een hele business is in SEO optimalisatie zal dit er ook komen voor AI.
Als ik nu al in detail zoek naar informatie over formaten in de betaalwereld komt de naam van mijn werkgever naar boven als officiële instantie in AI resultaten terwijl we het niet zijn. We publiceren wel veel informatie en vermoedelijk daardoor dat AI het zeer vaak linkt met ons. Commercieel is dit ergens tof, want zij die naar deze detailinformatie zoeken zijn soms wel onze klanten.

Toont wel goed aan dat (hoewel AI prima kan werken voor oppervlakkige vragen) het serieus de mist in kan gaan bij detail vragen. Het gevaar is ook vooral dat een AI antwoord zeer geloofwaardig lijkt (complete zinnen en logisch opgebouwd) maar soms complete onzin waardoor het echt belangrijk blijft dit te factchecken.

Hoewel ik AI al gebruikt heb voor inspiratie vind ik het wel een gevaarlijke tool als je er zelf niet bij nadenkt.

[Reactie gewijzigd door SMGGM op 19 augustus 2024 12:35]

Geen wonder, SearchGPT wordt zeker heel enorm populair, omdat we rechtstreeks antwoorden willen.

Laatste tijd deed Google's search niet zo best, geen wonder omdat we in AI tijdperk leven. Gemak en rechtstreeks antwoord. En het bespaart flink van je tijd.
Google's search deed het niet zo best omdat google daar aan heeft lopen schroeven.

Het is in google's voordeel dat je langer blijft zoeken (en op meer geadverteerde links klikt)
En het bespaart flink van je tijd.
ChatGPT vraagt veel te veel tekst van je, waardoor Google vaak gewoon de snellere oplossing is, zeker op de gsm.

ChatGPT: You are a senior .NET developer with 20 years of experience. Give me the most resilient way to implement an atomic commit to two different databases at once. If one of them fails to commit, for example because the database is down, the other should not be committed either.

Google: atomic commit to two databases .net

[Reactie gewijzigd door Enai op 20 augustus 2024 10:05]

...en gevonden content samenvat in antwoorden.
Als de kwaliteit van die antwoorden net zo betrouwbaar is al vele ChatGPT antwoorden... dan vertrouw ik de samengevatte antwoorden niet. ChatGPT neigt ook nu nog vaak naar het verzinnen van 'feiten'.
Onzin... het verzint niet, als het domme AI (zonder bewustzijn) is, geven ze alleen data weer dat door mensen werd ingevoerd :') Dus je bedoelt door mensen verzonnen antwoord :P
Oh jammer, ik hoopte even op een goede manier om grote hoeveelheden kennis uit een kennisbank zelf beschikbaar te maken in ChatGPT, maar dit lijkt meer een veredelde zoekmachine.
Een zoekmachine die doet wat Bing nu al doet? De integratie van AI/CoPilot in Bing vind ik tot nu toe best geslaagd.
Nou ik gebruik zowel ChatGPT (gratis) als betaalde Copilot. Ondanks dat het een groot voordeel is dat Copilot toegang heeft tot real time online informatie en het laatste GPT model (chatGPT zelf heeft dat niet) is de ‘intelligentie’ van ChatGPT veel beter en gaat Copilot toch heel vaak de fout in en voelt een stuk minder slim. Als je dan de kracht van de ‘echte GPT’ combineerde met realtime online data, dat is echt wel een upgrade
Uhm, de reden dat jouw ChatGPT het laatste model niet heeft is omdat je er dus niet voor betaalt toch? Ik heb gewoon toegang tot GPT-4o en GPT-4o mini.
De gratis versie heeft gewoon GPT-4o (default) en GPT-4o mini (keuze).

Mogelijk dat er nog limieten op het aantal queries staan.
Oh inderdaad, blijkbaar heb je gratis ook toegang tot GPT-4o en GPT-4o mini, maar GPT-4o is inderdaad beperkt.

Dan begrijp ik niet waarom @nikl zegt dat het laatste model niet in ChatGPT zit?
Klopt wat jullie zeggen, je valt na een paar queries terug naar een lagere versie, maar het punt dat ik wilde maken is dat ik die lagere versies van de ‘echte’ ChatGPT als beter ervaar dan copilot met nieuwere versie.
laaste tijd lijkt wel of copilot (teacher license) juist slechter wordt. Ik krijg veel foute voorstellen als ik iets in javascript/jquery moet doen en om hulp vraag (js is niet mijn dagelijkse programmeer taal).
Vaak krijg ik constructen die inmiddels "deprecated" zijn, b.v. jquery 2.2 dingen uit een forum van tig jaar geleden.

Dan wordt het toch weer zelf zoeken....
Ja of perplexity.ai. Je kan het ook zelf thuis doen met OpenWebUI (met een lokale LLM maar ook met ChatGPT's API als je wil).
Ik blijf het nog steeds onzin generatoren vinden. Als ik de vraag stel wat de naam is van de hond van de grote leider in de film The Great Dictator krijg compleet verschillende antwoorden van de verschillende "search" AIs, allemaal met referenties waar het antwoord niet eens terug te vinden is.
Net zoals de vorige generatie niet kon Googelen, zie je nu mensen die niet goed kunnen ChatGPT’en (klinkt nog steeds wat minder lekker, maar je snapt het punt). Als je het gereedschap goed weet te gebruiken, is het echt een krachtige aanvulling op je skillset.

Vroeger keken oude developers op me neer omdat ik alles Googlede in plaats van hun dikke boekenkast door te spitten. Nu zie ik weer mensen neerkijken op degenen die ChatGPT effectief inzetten in hun werk. Alles veranderd in de IT, maar sommige dingen veranderen nooit. :D
Nou als dat al als een functie beschikbaar komt dan zou je er denk ik een aardig bedrag voor moeten betalen gezien de opslagkosten, of het zal gratis zijn en is de data ook gelijk van openai
Ik weet niet wat ik verkeerd doe, maar ik vind de integratie/functionaliteit helemaal niet geslaagd. Als ik een beetje op iets specifieks zoek, zoals "Waar in Elst kan ik een halsband kopen voor mijn kat?" dan krijg ik daar echt niet het antwoord op dat ik verwacht. (3 van de 4 antwoorden waren zelfs webshops :()

Ik had inmiddels wel betere resultaten verwacht.

[Reactie gewijzigd door Thunderhawk op 19 augustus 2024 11:50]

Als ik dat vraag in ChatGPT dan krijg ik dit antwoord:
Welke fysieke winkels in Elst verkopen halsbandjes voor katten?

In Elst zijn er enkele fysieke winkels waar je halsbandjes voor katten kunt kopen:

1. **Welkoop Elst** - Deze winkel biedt een breed scala aan dierenbenodigdheden, waaronder halsbandjes voor katten.

2. **Dierenspeciaalzaak Het Molentje** - Hier vind je diverse accessoires voor je kat, waaronder verschillende soorten halsbandjes.

3. **Dierspecialist Moniek** - Dit is een gespecialiseerde dierenwinkel met een selectie van halsbandjes en andere benodigdheden voor katten.

Deze winkels zijn ideaal voor het fysiek bekijken en uitkiezen van producten voordat je ze aanschaft.
De kwaliteit van AI response hangt inderdaad in hoge mate af van de vraagstelling en met name de context die in de vraagstelling is verwerkt.
ik hoopte even op een goede manier om grote hoeveelheden kennis uit een kennisbank zelf beschikbaar te maken in ChatGPT
RAG is inmiddels een opgelost probleem.
Heb je hier ervaring mee? Dit is namelijk een probleempje waar ik tegenaan loop.
Ik heb niet de resources om zelf een LLM te trainen en RAG lijkt slechts met wat sleutelwoorden te zoeken in de kennisbank. Ik hoop een manier te vinden om echt alle kennis in een kennisbank, 10.000 artikelen ongeveer, direct beschikbaar te maken voor een LLM.
Wat is het verschil met Perplexity?
Mooie discussie over desinformatie en fake news altijd. Vandaar het spreekwoord: er zijn 3 waarheden, die van jou, die van mij en wat er echt gebeurt is.
Social media, AI, online laat pijnlijk zien hoe waar dit spreekwoord is. Waarheid moet passen in het verhaal van de controlerende partij. De waarheid is nou eenmaal niet altijd zwart wit. Bij geschiedenis noemen we dit nieuw bewijs, bij wetenschap noemen we het voortschrijdend inzicht en ga zo maar door. Al deze modellen worden gestuurd door tijdsgeest, voorkeur, BIAS, woke invloeden die vaak niet eens kwaadwillend bedoeld zijn maar altijd veranderen.

Kennis is macht, maar wie bepaalt welke kennis er gedeeld wordt?
Elon Musk zei al: Legacy media controlling what subjects they write about is by far their biggest lie, as they can ignore important matters and inflate minor ones.
En zie hoe hij zelf 'informatie en waarheden' deelt.

De discussie zit in een eindeloze loop net als alles wat hieruit voorkomt :)
En zie hoe hij zelf 'informatie en waarheden' deelt.
Zoals we weten sinds de communistische revolutie: het doel is nooit om een meer gelijke wereld te creëren, maar om te veranderen wie aan het roer staat in de huidige ongelijke wereld.

[Reactie gewijzigd door Enai op 20 augustus 2024 10:12]

SearchGPT sluit wachtllijst omdat het eigenlijk nog niet bedacht heeft hoe het geld kan verdienen met het product :P
Misschien kunnen ze het ChatGPT vragen.
De mogelijkheden om commerciele informatie te sturen is in zo'n zoekfunctie vele malen directer. Ik denk dat ze dan al heel goed in beeld hebben.

Als je zoekt naar de beste manier om kipsate te maken voor op de barbecue dan heb als Chat GPT naast alle persoonlijke info die nu al wordt verzameld ook nog de mogelijkheid om direct te koppelen aan locaties/merken/producten: "Koop bij de Appie bij je op de hoek het pakje Conimex sate kruiden dat nu voor jou in de aanbieding is en haal de 900 gram kippendij filet bij Slagerij de Haas...marineer de... "
Ze zijn inmiddels niet meer de eerste, er zijn al meer dan 20 ai search engines (zie https://free.ragy.ai/ waar je ze ook gelijk kunt vergelijken)

Op dit item kan niet meer gereageerd worden.