Google toont NotebookLM-app voor Android en iOS, release op 20 mei

Google heeft meer details gedeeld van zijn aanstaande NotebookLM-app voor Android en iOS. Het bedrijf liet vorige maand al weten dat die app eraan komt, maar heeft nu beelden laten zien. De release valt samen met Google I/O op 20 mei.

Google heeft beelden en details van de app gepubliceerd in de Google Play Store en Apple App Store, zo merkte 9to5Google op. Daaruit blijkt dat de AI-tool een interface krijgt met vier verschillende menu's. Gebruikers kunnen hun eigen, gedeelde en gedownloade notitieboeken inzien. Googles AI-functie Audio Overviews, waarmee de NotebookLM-app notities omzet naar luisterbare podcasts, kan ingeschakeld worden op playknoppen naast de afzonderlijke notities. Die functie kwam onlangs al beschikbaar in het Nederlands.

Gebruikers kunnen verder eigen bronnen invoeren in de NotebookLM-app, waar de AI-tool vervolgens zijn antwoorden op zal baseren. De app kan overweg met pdf-bestanden, websites, YouTube-video's en gekopieerde tekst.

Het is al langer bekend dat er een appversie aankomt van NotebookLM. Google zei begin april al dat die er 'snel' aankomt. Nu bevestigt Google AI Studio-productlead Logan Kilpatrick dat de app op 20 mei verschijnt. Daarmee valt de release samen met de eerste dag van de Google I/O-ontwikkelaarsbeurs. De app komt beschikbaar voor telefoons en tablets.

NotebookLM is een AI-tool die onder andere bedoeld is om te helpen bij onderzoek naar onderwerpen en studie voor studenten. Zo kan de tool makkelijk een quiz maken en vragen beantwoorden over de bronnen die de gebruiker aandraagt. Gebruikers kunnen ook documenten uploaden, waarna de tool een podcast over de inhoud genereert.

Google NotebookLM-app voor Android en iOSGoogle NotebookLM-app voor Android en iOS
Google NotebookLM-app voor Android en iOSGoogle NotebookLM-app voor Android en iOSGoogle NotebookLM-app voor Android en iOS

Door Daan van Monsjou

Nieuwsredacteur

02-05-2025 • 11:39

27

Reacties (27)

27
27
6
1
0
21
Wijzig sortering
Hoewel het zeer handige tools kunnen zijn wacht ik op de opensource variant die geen Google gebruikt of door Google ontwikkeld is. Is namelijk weer iets moois wat ze kunnen koppelen aan je profiel!!
De mind2 van Jolla is een op opensource gebaseerd alternatief om lokaal een LLM te draaien waar je eigen bronnen kunt uploaden en bevragen.
https://www.jollamind2.com/
  • De mind2 hangt net als een NAS in je netwerk.
  • Interactie gebeurd via de browser (op dit moment nog niet via een app).
  • Ondersteuning van pdf en txt bestanden.
  • Bij het stellen van een vraag kun je kiezen welke LLM je gebruikt.
Het project is sterk in ontwikkeling en staat nog in de kinderschoenen, maar in de basis werkt het.
Zelf heb ik de Mind2 vooral gekocht om mee te experimenteren en als support aan Jolla waarvan ik al jarenlang naar tevredenheid Sailfish OS gebruik (alternatief voor Android).

Vooral het experimenteren met verschillende LLM's is leuk.
LLM's vanaf Ollama zijn eenvoudig te installeren.
De modellen die je draait zijn van beperktere omvang, ca 3 tot 5 miljard parameters (3b tot 5b). Maar met enkele tests krijg je een aardig beeld welke LLM's geschikt zijn voor de vragen die je wilt stellen.

Uiteindelijk is het de bedoeling dat je ook online LLM's kunt gebruiken die veel groter en sneller zijn. Maar op de momenten dat je daarvoor kiest verlaat je data natuurlijk wel je lokale netwerk.
Ziet er nice uit, maar dat is toch eigenlijk hetzelfde als via Jan.ai een lokale LLM draaien en die 'trainen' op je eigen data of je eigen data als referentie laten gebruiken?
Ja lijkt inderdaad vergelijkbaar.
Jan.ai kende ik niet. Ziet er ook tof uit.

Mind2 ondersteunt naast documenten ook een koppeling met je mailbox, dat zie ik bij Jan.ai niet direct terug. En mind2 is natuurlijk een meer kant en klare 'in een box' oplossing. Maar leuk om dat jan.ai initiatief te zien!
Dat is natuurlijk ook het business model van google. Wij bieden je zoveel mogelijk gemak in ruil voor nog meer data.
Zou mooi zijn als grote nieuws sites zijn of haar lezers ook zou over informeren
Ik zou ook niet snel nog meer gegevens met Google en consorten willen delen..

Gelukkig is daar sinds kort een oplossing voor. Er wordt hard aan gewerkt, de eerste versie is er al! Volledig opensource:
https://github.com/nari-labs/dia

Te draaien op eigen moderne GPU.
Ik heb hem zelf nog niet uitgeprobeerd.

[Reactie gewijzigd door nout77 op 3 mei 2025 15:42]

Google geeft aan voor wat NotebookLM betreft niet te trainen op je data, en ik moet nog zien of de kwaliteit en performance van een eigen systeem het gaat helen bij de kwaliteit van NotebookLM.
Ik vind ChatGPT al leuk maar dit soort toepassing vind ik nog praktischer. Bijvoorbeeld een uitje plannen voor een groep mensen en rekening houden met alle afhankelijkheden.
Vraag me wel af hoe (on)zuinig dit soort tools zijn. Laatst las ik dat je AI niet moest bedanken omdat dit extra energie kost.
Waarom zou je überhaupt dankjewel zeggen?
Ik gok omdat bepaalde mensen het als menselijke interactie beleven en zo een gesprek afronden. Op internet zie ik ook gemengde signalen over waarom je het wel/niet moet doen.
Voorbeeld: https://techsevenpartners...-thank-you-when-using-ai/
Daar ik doorgaans erg beleefd ben tegen alles en iedereen, zie ik mijzelf dit dus niet doen tegen een "robot" Ieder zijn ding natuurlijk :) Wel leuk om te lezen dat stukje wat je aanhaalt!
Om aardig gevonden te worden door de AI wanneer die de wereld overneemt, duh!

😜
Valt mee allemaal. Bij Google al helemaal, omdat die gebruik maken van superzuinige TPU's. Het meeste energie gaat vooral in het trainen van de modellen, niet in de draaien van deze modellen.
Ik lees toch dat AI voor een search 10 x meer energie verbruikt dan een ouderwetse search. Om dan valt wel mee te roepen vind ik verbijsterend optimistisch
Maar als het resultaat is dat je sneller een antwoord hebt, is het misschien toch zo slecht niet. Het alternatief is dat ik bvb 15min verschillende websites open en bekijk en verschillende zoekopdrachten uitvoer.Dat kost ook energie.
Ik heb niet veel ervaring, maar de moeilijke vragen die ik aan AI stel leveren ook niet het gewenste antwoord op in 1 keer. Dus sneller antwoord gaat niet altijd op
Dat komt omdat net als met search de kwaliteit van het antwoord afhankelijk is van de nauwkeurigheid van de vraag.
Grappig, ik postte vanochtend dit topic omdat ik op zoek ben naar een AI chatbot die mijn bestanden kan gebruiken als bron... maar Google (online) is geen optie voor mij.
je kan gewoon een simpele LLM opzetten met lokale RAG. Volgens mij heeft Open-WebUI (zie github) hier support voor, maar dat heb ik zelf nog niet getest.

RTXChat, een tool van Nvidia die lokaal runt, schijnt dit ook te kunnen. Een eigen tool bouwen met RAG, is waarschijnlijk beter. Maar deze tool van Nvidia heb je binnen 10 minuten opgezet.

[Reactie gewijzigd door lars-h2017 op 2 mei 2025 12:43]

ah super aanbeveling, ziet er intteressant uit om mee te beginnen en ondertussen wat kennis rond RAG's op te doen.
RTX is volgens mij alleen voor Windows, dus dat is niet handig. Ik vond dat Open WebUI tamelijk ingewikkeld ogen... maar wellicht moet ik er nog eens naar kijken.
Valt beter mee dan je mogelijk denkt, Open WebUI verbindt zich naar de LLM's die jij instelt en je kan er dan gesprekken mee voeren. Niet enkel lokale maar ook publiek beschikbare zoals Chat GPT en Claude en Gemini.
Meerdere LLM's tegelijk bevragen of dezelfde vraag herhalen aan een ander model behoren zo tot de mogelijkheden. Zie het als een 'one stop UI' voor alle conversaties die je wil voeren of wil kunnen query-en.
Het draait ook heel makkelijk in een docker container.
Er zijn ook meer advanced mogelijkheden, daar ben ik minder mee bekend.
Dan moet ik maar eens op zoek naar tutorials.
En via docker? Op een nas, en dan verbinden met llm’s op mijn mac? Anders heeft dat niet veel nut, lijkt me.
Hoe gaat NotebookLM echt helpen bij leren? Gaat het ervoor zorgen dat studenten dingen beter onthouden, of wordt alles juist oppervlakkiger omdat AI het denkwerk doet?
Door structuur te brengen in (grote hoeveelheden of verspreide) data, deze makkelijk doorzoekbaar/bevraagbaar maakt, je kan helpen om samenvattingen te maken, etc.
Wil echter niet zeggen dat je niets meer moet doen en je kan natuurlijk argumenteren dat door een cursus zelf samen te vatten, je verplicht bent om delen over te schrijven/typen en de structuur echt moet kennen. Ben benieuwd wat dit voor de volgende generaties gaat betekenen.
Dat hangt af van de vraag die gesteld wordt, ik dacht dat een van de basis vragen het opzetten van een leerstructuur is, dit kun je zowel voor jezelf als als leraar doen. Van daaruit werk je verder.

Wat ik zelf doe is een podcast genereren van een boek en dat is dan de basis voor het verdere leerwerk. De podcast op zich kan al erg leerzaam zijn door de interactie tussen twee personen.

Daarnaast beheren wij een systeem waar zo'n 30 soms dikke pdf bestanden als documentatie bij zit, alleen al voor beheer en dat blijkt een prima vraagbaak geworden te zijn. Dat lukt met geen enkele lokale llm in een werkbaar tempo met deze kwaliteit.


Om te kunnen reageren moet je ingelogd zijn