Google geeft NotebookLM audio-overzichten met discussies tussen twee AI-stemmen

Google geeft zijn digitale notitieboek NotebookLM een mogelijkheid om audiodiscussies te genereren met AI-stemmen. Die wisselen argumenten uit op basis van notities die de gebruiker zelf heeft geüpload.

De bronnen kunnen in het Nederlands zijn, maar de AI-stemmen werken alleen in het Engels. De tool moet gebruikers een manier geven om een overzicht te krijgen van de samenvatting die NotebookLM kan genereren zonder te hoeven lezen, zegt Google. De functie werkt ook in Nederland en België, waar NotebookLM eerder dit jaar uitkwam. NotebookLM werkt als chatbot maar kan relatief beperkt hallucineren omdat die zich moet baseren op de door gebruikers aangewezen bronnen en zich daar strak aan houdt. De audio-overzichten lijken wel met meer creatieve vrijheid te werken dan de tekstuele antwoorden die tot nu toe gebruikelijk waren. Gebruikers kunnen onder meer documenten en spreadsheets als bronnen gebruiken.

NotebookLM Audio Overview
NotebookLM-audio-overview

Door Arnoud Wokke

Redacteur Tweakers

11-09-2024 • 19:49

6

Reacties (6)

6
6
1
0
0
4
Wijzig sortering
NotebookLM werkt als chatbot maar kan niet hallucineren.
Waar is dat op gebaseerd? Dat lijkt me niet juist namelijk, ook NotebookLM kan vol zelfvertrouwen onzin verkondigen (sorry, hallucineren). Zelf zegt google er dit over in de melding die je krijgt als je NotebookLM opent:
NotebookLM kan soms onjuiste of aanstootgevende informatie weergeven die niet de mening van Google vertegenwoordigt. Vertrouw niet op NotebookLM voor advies op medisch, juridisch, financieel of ander professioneel gebied. De content over deze onderwerpen wordt alleen ter informatie aangeboden en vormt geen vervanging van advies van een gekwalificeerde professional.
Ik heb het inmiddels uitgeprobeerd en hoewel NotebookLM tot nu toe heel strak stond afgesteld, gunt deze Audio Overview zichzelf meer creatieve vrijheid, zo lijkt het. Ik heb dat even toegevoegd, dank!
Hallucineren en onjuiste informatie geven zijn twee verschillende zaken.

Hallucineren gaat over het geven van contextuele incorrecte antwoorden. Je vraagt een mail op te stellen naar een vendor en je krijgt een antwoord hoe je popcorn moet maken (been there, done that).

Onjuiste informatie is feitelijk incorrect maar past in de context. Je vraagt hoe een template van een beleidsdocument eruit moet zien en je krijgt een antwoord waarin staat dat er een management samenvatting aanwezig moet zijn.

Er zijn al verschillende technieken, waaronder RAG, om de kans op hallucinatie drastisch te verlagen.
Hallucineren en onjuiste informatie geven zijn twee verschillende zaken.
Google is lekker vaag over wat precies 'onjuiste' informatie is en waar die vandaan komt. Ik heb het specifiek over het genereren van correct lijkende antwoorden waar zaken in verzonnen zijn, namen/plaatsen veranderd zijn etc. Dat gebeurt nog steeds, zelfs met veel context.
Hallucineren gaat over het geven van contextuele incorrecte antwoorden. Je vraagt een mail op te stellen naar een vendor en je krijgt een antwoord hoe je popcorn moet maken (been there, done that).
Dat vind ik toch heel iets anders als hallucineren. Een LLM kan de vraagstelling verkeerd begrijpen, oke dat gebeurt mensen ook. Ligt vaak genoeg aan de persoon die de vraag stelt. Maar bij een hallucinatie is de vraag goed 'begrepen', is een coherent overtuigend antwoord gegeven maar staat er onjuiste informatie in die verzonnen is.
Hallucineren en onjuiste informatie geven zijn twee verschillende zaken.
Er zijn verschillende definities voor hallucinaties in de context van LLMs, zover ik weet is het een term die veelvuldig gebruikt werd voordat geprobeerd werd om exact te definiëren wat het precies is. De definitie die ik ken heeft het over drie soorten. Input-conflicting hallucinations, je vraagt om A maar je krijgt B. Context-conflicting, de LLM heeft het over B en begint dan over C. Fact-conflicting, de LLM beweert dat kaas een groente is.
Is dit die "podcast" intergratie waar Google het een tijdje over had?
Kan mij vaag herinneren dat een spokesman van Google het had over een leuke manier om te leren d.m.v een podcast.
Ik meende dat ze daarbij ook een functie hadden dat je kon deelnemen, wellicht komt dat nog later.

Op dit item kan niet meer gereageerd worden.