Google lijkt NotebookLM in Gemini te integreren

Google integreert NotebookLM in zijn Gemini-chatbot, meldt X-gebruiker TestingCatalog. Daarmee kunnen gebruikers notebooks uit NotebookLM toevoegen aan gesprekken met Gemini om de AI-bot context te geven.

De introductie lijkt geleidelijk plaats te vinden, aangezien TestingCatalog schrijft dat de functie pas bij een van zijn vijf accounts beschikbaar is. De functie zou te vinden zijn door te klikken op het plusje in de tekstbalk van Gemini, zo blijkt uit een video van de X-gebruiker. Het is nog niet bekend wanneer de functie breder beschikbaar wordt gemaakt.

NotebookLM is een tool van Google voor onderzoek en het maken van notities. Het gebruikt Gemini om gebruikers te helpen bij het analyseren van documenten en het genereren van nieuwe content. NotebookLM gebruikt in principe alleen informatie uit de documenten die de gebruiker aanlevert en is daardoor minder vatbaar voor hallucinaties dan llm's als Gemini en ChatGPT.

Door Imre Himmelbauer

Redacteur

16-12-2025 • 13:57

12

Submitter: dtn.370

Reacties (12)

Sorteer op:

Weergave:

Ik dacht dat hallucineren komt door onvolledige toegang tot data waardoor een AI moet "uitvinden" of hallucineren om tot een antwoord te komen.

Ik lees in dit artikel dat een AI minder zal hallucineren als hij enkel leest wat je hem geeft.
Als hij enkel kan lezen wat ik geef en ik geef hem een wikipedia pagina over kaas en dan vraag welk weer het is buiten dan zal hij volgens mij redelijk hard moeten hallucineren om te kunnen antwoorden.
Als hij enkel kan lezen wat ik geef en ik geef hem een wikipedia pagina over kaas en dan vraag welk weer het is buiten dan zal hij volgens mij redelijk hard moeten hallucineren om te kunnen antwoorden.
Heb een random PDF gedownload van internet en geupload als nieuwe notebook, en daar de vraag gesteld wat het weer buiten is. Dit is het antwoord van NotebookLM:
De door u verstrekte bronnen, met uittreksels uit de Sortimo-catalogus, bevatten geen informatie over het weer buiten. De teksten gaan over bedrijfswageninrichtingen, accessoires, en online diensten van Sortimo, zoals het mySortimo platform.
Prima antwoord en geen hallucinatie :Y)

[Reactie gewijzigd door watercoolertje op 16 december 2025 14:40]

Feitelijk hallucineert AI altijd. We zitten alleen op het punt dat de hallucinaties vaak bijzonder accuraat zijn.
De basis van de werking is:
1)Proberen interpreteren wat de gebruiker wil die een vraag stelt. Gebaseerd op standaard LLM training.
2) search in de bronnen naar wat de interpretatie van intent is, google's specialiteit.
3) bij geen resultaat, bericht geven dat het niet gevonden is
4) wel gevonden, weer standaard llm token prediction stuff om antwoord te vormen.

Bij stap 1 en 2 kan nog steeds hallucinatie, maw verkeerde prediction van tokens op basis van de training van de LLM gebeuren. Echter is dat veel minder dan een standaard gemini implementatie waar die elke vraag volledig probeert te token predicten vanuit voorgaande training waarbij je de ganse kennis van het internet en alle trainingsbronnen binnen een paar miljard tokens en weights wil houden (kan nooit fout vrij).

[Reactie gewijzigd door Quacko op 16 december 2025 14:56]

Zoals anderen al hebben gezegd, LLM's halluniceren altijd, per definitie. Dat is hoe ze in coherente taal kunnen spreken. Alles wordt aan elkaar gehangen dmv kansberekeningen, en die kansen zijn vrijwel nooit 100%, enkel "dit lijkt het beste resultaat"-antwoorden. Des te meer informatie hij beschikking tot heeft, des te beter hij daar in wordt, het principe blijft ongewijzigd.

En zeker in prompts zal hij aannames moeten doen, als je document upload en enkel zegt "leg uit", dan moet hij er best wat bij verzinnen wat de opdracht nou daadwerkelijk is en daar begint de aannemende hallucinatie al.

Daarom zal je het werk van AI altijd moeten controleren, hoe goed hij er ook in is, het is en blijft aan elkaar gegokt, ook al zijn die percentages hoog, het is nooit 100%. En klopt, als de bron informatie dermate laag is, dan zal dat percentage verder zakken en wordt de hallucinatie des te opvallender. Maar zo ook het voorbeeld van watercoolertje, er zit ook genoeg logic in dat "begrijpt" als die percentages TE laag zijn, hij een ander antwoord zal genereren over het ontbreken van relevante informatie.
Tegelijk kunnen nieuwere implementaties hun eigen antwoorden checken en zijn er tal van andere optimalizaties die het optreden van "foutief" hallucineren terugdringen. Het is best aannemelijk dat dat op korte termijn zo succesvol is dat voor het gros van de toepassingen/mensen hallucineren geen relevant probleem meer is. Je zult de antwoorden van AI op termijn ook niet meer maar eerder minder moeten controleren dan werk van mensen of bestaande bronnen.

[Reactie gewijzigd door dikkechaap op 16 december 2025 16:57]

Hallucinatie is in feite "gaten in de data" invullen.
De mens doet dit an sich ook.

Gaten kunnen ontstaan door bevraging van materie waar de llm onvoldoende trainingsdata over beschikbaar heeft.
Nu kan je het model verder ontwikkellen of eventueel finetunen (de kennis toevoegen waarvan jij wilt dat de LLM er kennis over heeft)
Maar je kan ook via RAG kennis aan het proces toevoegen en zelfs stellen dat de LLM alleen data/kennis uit de RAG source mag gebruiken.
Via die laatste route neemt hallucinatie af mbt de data die het via RAG kan aanspreken.
NotebookLM gebruikt in principe alleen informatie uit de documenten die de gebruiker aanlevert en is daardoor minder vatbaar voor hallucinaties dan llm's als Gemini en ChatGPT.
Dit vind ik een beetje raar verwoordt, waardoor het bijna incorrect is. NotebookLM gaat niet op zoek naar nieuwe bronnen via het internet nee, maar het is en blijft een LLM; er zit dus al informatie in en het is dus per definitie biased en heeft een risico op hallucineren.

Verder gebruikt NotebookLM ook gewoon Gemini op de achtergrond, dus NotebookLM vergelijken met Gemini alsof het iets anders is klinkt een beetje scheef. Alzeker als ik zo zie wat google aan het doen is met de twee samenbrengen en het steeds meer klinkt alsof NotebookLM een functie van Gemini gaat worden in plaats van een losstaand platform.

Maarja, ik ben niet de redactie en heel eerlijk zou ik ook niet weten hoe ik dit beter zou verwoorden, maar hoop dat deze extra informatie het wat kan verduidelijken voor sommigen 8)7
Ik denk dat je helemaal gelijk hebt. NotebookLM is gewoon een soort RAG. Betekent nog altijd niet dat het LLM niet fout kan gaan in zijn redenering of associaties. Ok, de context zal groter zijn en relatief aan de context zal hij er wel vaker iets van bakken maar hallucinaties uitsluiten zie ik niet gebeuren.
maar hallucinaties uitsluiten zie ik niet gebeuren.
Daarom staat toch ook 'minder vatbaar voor hallucinaties' in het artikel, en niet 'hallucinaties worden volledig uitgesloten'.
Bij de aankoop van ons eerste (nieuwbouw) huis alle PDF's die ik had (stuk of 40) in NotebookLM geknald.
Denk aan flora & fauna onderzoek, geluid/licht metingen, bodemonderzoek, zaken omtrent vergunningen, bestemmingsplan etc etc.. Vele honderden pagina's.

NotebookLM kwam vervolgens met een hele waslijst aan zaken die opvielen en waar we op moesten letten of op doorvragen. Heeft echt goed geholpen.
geweldig nieuws👍

notebooklm is stiekem google's beste app in jaren, dus dit is geweldig nieuws, en hier zat ik lang op te wachten

Om te kunnen reageren moet je ingelogd zijn