Perplexity AI introduceert AI-agent voor diepgaand onderzoek

Perplexity AI heeft een AI-agent voor diepgaand onderzoek geïntroduceerd: Deep Research. De AI-functie kan meerfasig onderzoek doen en zelfstandig redeneren tijdens de onderzoeksfase. Deep Research is beperkt gratis voor alle gebruikers en volledig gratis voor Pro-gebruikers.

Perplexity AI schrijft in een blogpost dat Deep Research documenten kan lezen en zelfstandig kan 'redeneren' over de volgende stappen in het onderzoeksproces. De tool kan dit onderzoeksproces ook zelfstandig bijsturen naarmate het meer over een bepaald onderwerp heeft bijgeleerd. Zodra al het bronmateriaal is geëvalueerd, kan de tool een synthese van de onderzochte informatie genereren. Die samenvatting kan vervolgens in een apart document komen te staan. Dit document kan met anderen worden gedeeld via een pdf-bestand, een Perplexity Page of een MarkDown-document.

Het bedrijf schrijft dat Deep Research een score van 20,5 procent behaalt op Humanity’s Last Exam. Dat is een benchmark waarmee nagegaan wordt hoe AI-taalmodellen omgaan met complexe, academische vragen en of ze deze kunnen beantwoorden. Ter vergelijking: OpenAI deep research, een soortgelijke onderzoekstool van OpenAI, behaalt op deze test naar verluidt een score van 26,6 procent en zou momenteel de best presterende AI-onderzoekstool zijn. Perplexity Deep Research haalt in de SimpleQA-benchmark naar verluidt een score van 93,9 procent. Deze benchmark gaat na in welke mate taalmodellen korte en feitelijk correcte antwoorden op een reeks vragen kunnen geven. De o1-preview van OpenAI zou op deze benchmark een score van 42,7 procent halen.

Perplexity Deep Research is momenteel te gebruiken via de webversie van Perplexity AI. De onderzoekstool wordt binnenkort uitgerold naar de Android-, iOS- en macOS-apps. Wanneer precies, is niet duidelijk. Gebruikers zullen hun apps moeten updaten om de functie te kunnen gebruiken. Perplexity AI is niet het enige AI-bedrijf met een agent voor diepgaand onderzoek. OpenAI heeft begin februari deep research geïntroduceerd. Google kwam in december 2024 dan weer met Gemini Deep Research. Beide tools kunnen op basis van prompts onderzoek doen en onderzoeksrapporten genereren.

Door Jay Stout

Redacteur

15-02-2025 • 11:34

40

Reacties (40)

40
40
25
0
0
12
Wijzig sortering
Het probleem met veel van die deep research tools is dat veel goede research papers achter een paywall vindbaar is. Kan je nog zo'n goede AI hebben, kom je elke keer bij dezelfde publieke documenten uit. Die je dus ook vind met b.v. Google.

Goede gegevens zijn goed waard.
Je hebt natuurlijk ook Z-Library en Anna's archive. Die hebben veel van het spul achter die paywalls.

Alleen zal perplexity daar waarschijnlijk niet mee samenwerken. Aan de andere kant, als ik lees dat zelfs meta gewoon gigabytes aan illegale boeken heeft gebruikt... :)
Ik denk dat je je als wetenschapper/onderzoeker/journalist flink in je voet kan schieten als je van die vage libraries gebruik maakt als bron. Of het artikel origineel en up to date is bijvoorbeeld. Of dat een grapjas het document veranderde. Staat wel lullig als je een stuk publiceert en je bron blijkt corrupte data te bevatten waarop je je conclusie baseert.

Veel van dit soort websites worden ook geblokt door adblockers als "badware content".

Maar het kan nog erger. De NEN is bijvoorbeeld berucht om de hoge prijzen die ze vragen voor een norm. En ja, er slingeren normen rond. Maar je wil echt niet dat er ongelukken gebeuren omdat je werkt op een corrupt normblad.
Ja als je het als officiële bron gebruikt misschien. Maar op die manier kan je in elk geval grasduinen in publicaties zonder extreem dure abonnementen. Ik heb begrepen dat studenten het om deze reden ook veel gebruiken. Een adblocker is natuurlijk geen probleem. Overigens heeft Z-Library in het bijzonder wel veel copycat sites dus wellicht zijn het gewoon die die geblokkeerd worden.

Zodra je dan publiceert dan weet je precies welke artikelen je nodig hebt.

Als ik wetenschapper was dan zou ik het zeker doen. De wetenschappers die het publiceren verdienen er ook niks aan, die moeten er zelfs vaak voor betalen. De uitgevers hebben de hele wetenschap in een houdgreep omdat het zo belangrijk gevonden wordt om 'gepubliceerd' te worden.

Ze worden gewoon betaald voor de Universiteit waar ze voor werken.

[Reactie gewijzigd door Llopigat op 15 februari 2025 15:46]

Juist als wetenschapper én serieuze student hoor je de juiste bron te gebruiken. Al was het alleen maar om de rectificaties.

Bekend voorbeeld: vaccinaties en autisme. De originele publicatie bleek gefalsificeerd. (ter verduidelijking: weerlegd)

Uiteindelijk bleek het duidelijk geval van wetenschappelijke fraude. Toch is het door velen aangehaald met desastreuze gevolgen.

Enige oplossing: studenten duidelijk maken dat dit soort bronnen niet te vertrouwen zijn omdat informatie ontbreekt.

[Reactie gewijzigd door fenrirs op 17 februari 2025 19:44]

Hij bedoelt volgens mij dat je dit soort bronnen kunnen gebruiken om uit te zoeken welke publicaties je nodig hebt. Als je dat eenmaal weet kun je voor een minimaal bedrag alleen dat aanschaffen wat je ook echt gebruikt in je eigen werk.
Studenten hebben gewoon toegang tot alle wetenschappelijke literatuur die relevant is voor hun studierichting.
Alle NL universiteiten hebben daar een “ouderwetsch” instituut voor. De bibliotheek (voorzien van alle digitale gemakken)
"De originele publicatie bleek gefalsificeerd".... ik denk dat je wat anders bedoelt. Falsificatie is een normale manier van wetenschap bedrijven, en geen fraude.
"De originele publicatie bleek gefalsificeerd".... ik denk dat je wat anders bedoelt. Falsificatie is een normale manier van wetenschap bedrijven, en geen fraude.
in eerste instantie is de publicatie gefalcificeerd. Falsificatie betekent nlk dat het mogelijk is om tegenbewijs te vinden voor een bepaalde theorie. De theorie dat entingen autisme zouden veroorzaken kon niet worden 'geverifieerd', in tegendeel, er is veel bewijs dat er geen enkele invloed is.

Later bleek dat de orginele publicatie gefabriceerde data gebruikte, dat bleek dus uiteindelijk gewoon fraude, i.p.v. 'slechts' een verkeerde theorie.

Het probleem van publicaties met veel (maatschappelijke) impact is dat de falcificering NIET die impact heeft, waarmee een verkeerd gebleken theorie tóch voet aan de grond krijgt.

[Reactie gewijzigd door fenrirs op 17 februari 2025 19:46]

Die zijn kei handig voor als je universiteits netwerk er een week uit ligt door een cyberattack ;)
Het is te hopen dat de andere bedrijven dan Anthropic ook MCP gaan ondersteunen (Model Context Protocol, zie: https://www.anthropic.com/news/model-context-protocol & b.v. https://github.com/modelcontextprotocol/servers ). Met MCP kan je "eenvoudig" een gateway server maken naar informatie waar jij toegang toe hebt, ook als die informatie niet publiekelijk toegankelijk is.
OpenAI heeft hier ook gewoon een API voor: https://help.openai.com/e...-semantic-search-for-gpts

Kan je gebruiken in frontends die tegen de API babbelen zoals OpenWebUI.

De sites/apps van de AI providers gebruik ik toch nooit want hiermee kan ik queries tegen verschillende providers tegelijk uitzetten. Zelfs lokale modellen.

[Reactie gewijzigd door Llopigat op 15 februari 2025 15:50]

OpenAI moet gewoon MCP ondersteunen.
Maar als je het echt wil dan neem je toch gewoon Anthropic? Claude is momenteel zelfs een stukje beter dan GPT-4o. Maar zelfs op momenten dat OpenAI voorligt, is het nek aan nek.
persoonlijk vind ik perplexity veel prettige vanwege de response snelheid. Zeker eens proberen ;)
Ja nogal wiedes want hij gebruikt GPT-3.5 in de gratis versie en die is erg licht voor de huidige standaarden. Bron: Wikipedia: Perplexity AI

Maar met GPT-4o of Claude heb je natuurlijk wel een hogere kwaliteit. Die kan je ook aanroepen als je een betaald abo hebt, maar die zijn dan ook trager natuurlijk.

Ik heb het wel eens geprobeerd trouwens maar ik heb het niet zo op cloud LLM (of cloud voor wat dan ook eigenlijk). Ik gebruik vooral lokale modellen ondanks dat die natuurlijk wel veel minder presteren.

[Reactie gewijzigd door Llopigat op 16 februari 2025 21:54]

Oei sorry, ik bedoelde de nieuwste Mistral (weekend vermoeidheid)

Mistral moet je eens proberen (echt de moeite)
Oh op die manier. Ja inderdaad, ik heb mistral ook geprobeerd en ik vind hem vooral goed met Europese talen. Ik heb sommige van hun modellen ook lokaal draaien. Maar omdat ik vooral Engels gebruik, heb ik die niet zo heel vaak in gebruik.

Ik zou hun cloud LLM wel linken aan mijn OpenWebUI (via LiteLLM) maar ik heb nergens de prijzen voor hun API kunnen vinden, alleen "talk to sales". Daar heb ik niet zoveel aan. Ik heb de voorkeur aan een bedrag vooraf betalen (prepaid) zoals OpenAI en Anthropic doen. Omdat ik de cloud modellen weinig gebruik, heb ik niet zoveel aan een abonnement.

[Reactie gewijzigd door Llopigat op 16 februari 2025 21:58]

Dat komt omdat hun standaard API gratis is (dat had ik toch ergens gelezen)

Als de gratis API niet voldoende is, kan je ook de geavanceerde API nemen, ik heb de prijzen hier gevonden: https://mistral.ai/en/products/la-plateforme#pricing
Ik dacht ook iets gelezen te hebben dat de nieuwe Gemini Flash 2.0 van een week geleden ook heeel goedkoop is.

[Reactie gewijzigd door sebastienbo op 16 februari 2025 22:38]

Een groter probleem is dat het überhaupt weinig met research te maken heeft. Research is niet (of zou dat niet moeten zijn) het opzoeken van papers en dan daar je eigen knip en plakwerk van maken. Zelfs bij metastudies zul je meer moeten doen dan dat.

Een paper is slechts het resultaat van research. Met dit soort “tools” ben je dus alleen resultaten aan het produceren. Maar je hebt niks waar die resultaten op gebaseerd zijn.
Net geprobeerd en het werkt vrij aardig. Het voordeel is dat je kunt aangeven dat hij alleen in academische bronnen moet zoeken, iets dat met Gemini en OpenAI (nog) niet kan. Maar nog betere alternatieven zijn Consensus AI, Elicit, Scispace en Scite AI.
Met Kagi's Assistant kan je uit een stuk of 20 AI's kiezen, o.a Gemini en OpenAI. Maar daar kan je dus wel het internet toegang limiteren, de standaard voorbeelden zijn Academische bronnen, en programmeer websites. Maar je kan ook zelf kiezen wat het exacte filter moet zijn.
Iemand op Youtube heeft Deep Research van OpenAI getest en het viel voor deze gebruiker behoorlijk tegen: YouTube: AI DISASTER: Product DEMO by OpenAI - Deep Research. En dat was blijkbaar de tech demo van OpenAI zelf.
Net een zinloos test onderzoekje gedaan naar iets waar ik zelf bij betrokken was met vrij weinig beschikbare specifieke informatie, maar wel redelijk veel vergelijkbare situaties en informatie in het algemeen. Bij gebrek aan specifieke informatie (wat je ziet terwijl het onderzoek gaande is) komt er dan een bijna geheel op speculatie gebaseerde 'case study' uit waar je niets wijzer van wordt maar als buitenstaander een compleet verkeerd beeld krijgt van de situatie, zowel in het resultaat als de toelichting.

Ik vind dit gevaarlijk, want het leest alsof het allemaal wel klopt
Ja!! Hier ook veel veel last van. Op het werk hebben we veel lul de behangers die roeptoeteren dat AI ze zoveel tijd bespaart. Ik kreeg afgelopen week een voorstel mailtje om rond te sturen. Klopte weer totaal geen fuck van en iedereen die het even had doorgelezen ziet dat. Er was zoveel aan fout (inhoudelijk) dat ik het helemaal opnieuw met de hand heb geschreven. Want ik stuur zoiets natuurlijk niet rond. Sommige dingen die werden geblaat waren gewoon letterlijk het omgekeerde van de waarheid. Duidelijk was er gewoon 30 seconden een promptje getikt en het resultaat ongelezen doorgeblaft.

Maar die lul loopt wel te pochen naar het management over zijn copilot zonder enige verantwoordelijkheid te nemen. Terwijl hij al het werk gewoon op anderen afwimpelt. Daar heb je geen AI voor nodig om dat te doen.

Ik zie een hele generatie aankomen die geen flauw benul heeft wat ze aan het doen zijn maar alleen wat promptjes inkloppen zonder enige verantwoordelijkheid te nemen.

Hetzelfde met die auto-notulen in teams. Zitten vaak koeien van fouten in maar niemand die het ook maar even doorleest voor ze het rondsturen. Doe dan liever gewoon geen notulen doorsturen. Dat is beter dan deze rommel.

[Reactie gewijzigd door Llopigat op 15 februari 2025 16:24]

Ja, het gaat fout als je zelf niet controleert wat de AI voor je geschreven heeft. Verder wel content met het werk Copilot voor mij doet bij het schrijven code zoals jsdocs of xmldocs etc. Veel gevallen klopt het wel in grote lijnen. Ik vind het ook leuk om te gebruiken om een basis te krijgen voor documentatie van bijv. Github workflows of shell scripts etc.
Ja github copilot is een ander verhaal. Die van Office werkt duidelijk een stuk minder.

Het was ook github copilot die de term copilot heeft gepopulariseerd, omdat het zo'n succes was.
Dan laat je zo'n lul de behanger lekker zelf dat mailtje rondsturen en op zijn / haar bek gaan. Dat soort incompetente mensen horen zich gewoon keihard te branden aan hun stomme fouten.
Mischien een gevoellige vraag, maar welke brache werk jij?
Ik werk in de IT, net zoals de meesten hier denk ik.
Je kunt natuurlijk een ITer zijn in een niet-it organisatie. :)
Maar evengoed bedankt voor het antwoord!
Interessant. Perplexity begon als een van de eersten met zoekmachine integratie en had dat eerder dan de rest echt goed werkend. Ik ben benieuwd naar deze tool. Al ben ik geen wetenschapper dus ik weet niet hoeveel baat ik erbij heb.

[Reactie gewijzigd door Llopigat op 15 februari 2025 12:59]

Wat ik me af vraag is in hoeverre hier de grootst gemene deler uit wordt gedistilleerd en als er een foute consensus is binnen het onderwerp deze altijd zal worden getoond in plaats van een controversiële nieuwe theorie. Dus dat ze die nieuwe theorie nooit te zien krijgen.
Net getest op een voor mij bekend onderwerp. De eerste rapportages zijn veelbelovend. :) Nb. In mijn vraagstelling was expliciete verwijzing naar academische stukken opgenomen.

[Reactie gewijzigd door Westpjotr op 15 februari 2025 15:28]

Gehaast broddelwerk.
Minder dan een week geleden toonde OpenAI deep research. En nu moet perplexity ook iets laten zien. En dat is prima als je qua prestatie in de buurt kan komen, maar niet zo, werk dan gewoon door tot je iets hebt wat je wel met enige trots kunt tonen.
Heb je het al geprobeerd? Of roep je maar wat?
Ik heb het in ieder geval wel geprobeerd en het is geen gehaast broddelwerk.
Minder dan een week geleden toonde OpenAI deep research
nieuws: OpenAI introduceert ChatGPT-agent voor diepgaand onderzoek
Dat nieuws is van 3 februari, het is nu 15 februari, in mijn agenda is 7+5 dagen meer dan een week.

De tijd bij het trainen van een AI zit hem niet in het daadwerkelijk trainen op GPU's of het configureren van de training. De tijd zit het grootste gedeelte in het schoon maken van de dataset.
Dat hebben ze natuurlijk al lang gedaan voor andere trainingen, dus kost het gek genoeg niet zo veel tijd om een nieuw type training te doen. En dus dit type model te ontwikkelen.

Als eenmaal de concepten bekend zijn en hoe het moet, is het slechts een kwestie van doen.

Op HuggingFace was er na de DeepSeek R1 release een 24h Deep Research hackathon met verschillende leuke resultaten. Die code is open, dus kan iedereen van leren.

Zie ook https://huggingface.co/spaces/gaia-benchmark/leaderboard

[Reactie gewijzigd door djwice op 15 februari 2025 12:42]

Als je even logisch nadenkt dan kan je weten dat de ontwikkeling van software van deze magnitude jaren werk is.
Misschien is het iets versneld op de markt gebracht om mee te surfen op de hype, maar dit is al heel lang in de maak en niet iets dat je zo maar eventjes in een weekje in elkaar prutst.
Per vandaag beschikbaar op mijn android telefoon

Op dit item kan niet meer gereageerd worden.