Google toont NotebookLM-app voor Android en iOS, release op 20 mei

Google heeft meer details gedeeld van zijn aanstaande NotebookLM-app voor Android en iOS. Het bedrijf liet vorige maand al weten dat die app eraan komt, maar heeft nu beelden laten zien. De release valt samen met Google I/O op 20 mei.

Google heeft beelden en details van de app gepubliceerd in de Google Play Store en Apple App Store, zo merkte 9to5Google op. Daaruit blijkt dat de AI-tool een interface krijgt met vier verschillende menu's. Gebruikers kunnen hun eigen, gedeelde en gedownloade notitieboeken inzien. Googles AI-functie Audio Overviews, waarmee de NotebookLM-app notities omzet naar luisterbare podcasts, kan ingeschakeld worden op playknoppen naast de afzonderlijke notities. Die functie kwam onlangs al beschikbaar in het Nederlands.

Gebruikers kunnen verder eigen bronnen invoeren in de NotebookLM-app, waar de AI-tool vervolgens zijn antwoorden op zal baseren. De app kan overweg met pdf-bestanden, websites, YouTube-video's en gekopieerde tekst.

Het is al langer bekend dat er een appversie aankomt van NotebookLM. Google zei begin april al dat die er 'snel' aankomt. Nu bevestigt Google AI Studio-productlead Logan Kilpatrick dat de app op 20 mei verschijnt. Daarmee valt de release samen met de eerste dag van de Google I/O-ontwikkelaarsbeurs. De app komt beschikbaar voor telefoons en tablets.

NotebookLM is een AI-tool die onder andere bedoeld is om te helpen bij onderzoek naar onderwerpen en studie voor studenten. Zo kan de tool makkelijk een quiz maken en vragen beantwoorden over de bronnen die de gebruiker aandraagt. Gebruikers kunnen ook documenten uploaden, waarna de tool een podcast over de inhoud genereert.

Google NotebookLM-app voor Android en iOSGoogle NotebookLM-app voor Android en iOS
Google NotebookLM-app voor Android en iOSGoogle NotebookLM-app voor Android en iOSGoogle NotebookLM-app voor Android en iOS

Door Daan van Monsjou

Nieuwsredacteur

02-05-2025 • 11:39

34

Reacties (34)

34
34
6
1
0
28
Wijzig sortering
Hoewel het zeer handige tools kunnen zijn wacht ik op de opensource variant die geen Google gebruikt of door Google ontwikkeld is. Is namelijk weer iets moois wat ze kunnen koppelen aan je profiel!!
De mind2 van Jolla is een op opensource gebaseerd alternatief om lokaal een LLM te draaien waar je eigen bronnen kunt uploaden en bevragen.
https://www.jollamind2.com/
  • De mind2 hangt net als een NAS in je netwerk.
  • Interactie gebeurd via de browser (op dit moment nog niet via een app).
  • Ondersteuning van pdf en txt bestanden.
  • Bij het stellen van een vraag kun je kiezen welke LLM je gebruikt.
Het project is sterk in ontwikkeling en staat nog in de kinderschoenen, maar in de basis werkt het.
Zelf heb ik de Mind2 vooral gekocht om mee te experimenteren en als support aan Jolla waarvan ik al jarenlang naar tevredenheid Sailfish OS gebruik (alternatief voor Android).

Vooral het experimenteren met verschillende LLM's is leuk.
LLM's vanaf Ollama zijn eenvoudig te installeren.
De modellen die je draait zijn van beperktere omvang, ca 3 tot 5 miljard parameters (3b tot 5b). Maar met enkele tests krijg je een aardig beeld welke LLM's geschikt zijn voor de vragen die je wilt stellen.

Uiteindelijk is het de bedoeling dat je ook online LLM's kunt gebruiken die veel groter en sneller zijn. Maar op de momenten dat je daarvoor kiest verlaat je data natuurlijk wel je lokale netwerk.
Ziet er nice uit, maar dat is toch eigenlijk hetzelfde als via Jan.ai een lokale LLM draaien en die 'trainen' op je eigen data of je eigen data als referentie laten gebruiken?
Ja lijkt inderdaad vergelijkbaar.
Jan.ai kende ik niet. Ziet er ook tof uit.

Mind2 ondersteunt naast documenten ook een koppeling met je mailbox, dat zie ik bij Jan.ai niet direct terug. En mind2 is natuurlijk een meer kant en klare 'in een box' oplossing. Maar leuk om dat jan.ai initiatief te zien!
Dat is natuurlijk ook het business model van google. Wij bieden je zoveel mogelijk gemak in ruil voor nog meer data.
Zou mooi zijn als grote nieuws sites zijn of haar lezers ook zou over informeren
Ik zou ook niet snel nog meer gegevens met Google en consorten willen delen..

Gelukkig is daar sinds kort een oplossing voor. Er wordt hard aan gewerkt, de eerste versie is er al! Volledig opensource:
https://github.com/nari-labs/dia

Te draaien op eigen moderne GPU.
Ik heb hem zelf nog niet uitgeprobeerd.

[Reactie gewijzigd door nout77 op 3 mei 2025 15:42]

Google geeft aan voor wat NotebookLM betreft niet te trainen op je data, en ik moet nog zien of de kwaliteit en performance van een eigen systeem het gaat helen bij de kwaliteit van NotebookLM.
Ik vind ChatGPT al leuk maar dit soort toepassing vind ik nog praktischer. Bijvoorbeeld een uitje plannen voor een groep mensen en rekening houden met alle afhankelijkheden.
Vraag me wel af hoe (on)zuinig dit soort tools zijn. Laatst las ik dat je AI niet moest bedanken omdat dit extra energie kost.
Waarom zou je überhaupt dankjewel zeggen?
Ik gok omdat bepaalde mensen het als menselijke interactie beleven en zo een gesprek afronden. Op internet zie ik ook gemengde signalen over waarom je het wel/niet moet doen.
Voorbeeld: https://techsevenpartners...-thank-you-when-using-ai/
Daar ik doorgaans erg beleefd ben tegen alles en iedereen, zie ik mijzelf dit dus niet doen tegen een "robot" Ieder zijn ding natuurlijk :) Wel leuk om te lezen dat stukje wat je aanhaalt!
Om aardig gevonden te worden door de AI wanneer die de wereld overneemt, duh!

😜
Valt mee allemaal. Bij Google al helemaal, omdat die gebruik maken van superzuinige TPU's. Het meeste energie gaat vooral in het trainen van de modellen, niet in de draaien van deze modellen.
Ik lees toch dat AI voor een search 10 x meer energie verbruikt dan een ouderwetse search. Om dan valt wel mee te roepen vind ik verbijsterend optimistisch
Maar als het resultaat is dat je sneller een antwoord hebt, is het misschien toch zo slecht niet. Het alternatief is dat ik bvb 15min verschillende websites open en bekijk en verschillende zoekopdrachten uitvoer.Dat kost ook energie.
Ik heb niet veel ervaring, maar de moeilijke vragen die ik aan AI stel leveren ook niet het gewenste antwoord op in 1 keer. Dus sneller antwoord gaat niet altijd op
Dat komt omdat net als met search de kwaliteit van het antwoord afhankelijk is van de nauwkeurigheid van de vraag.
Wat is dan het voordeel van AI?
Ai kan je een complete installatie procedure voorkouwen, onderzoek doen en daar een verslag van leveren, een leerzame podcast maken. Een goed antwoord geven over de vraag bij de keuze tussen twee auto's, een prima en uitgebreid antwoord geven op een exceptie in je logging, of een groter stuk ligging analyseren en dan een analyse daarop terug geven. Of, ,oals met Google live Streaming op je desktop meekijken en als extra collega functioydie overal wat van af weet en helpt bij het oplossen van een probleem. Of nog beter, bij coroot doet Ai een analyze van een probleem in een microservices architectuur en wijzen naar het probleem en een oplossing aanbieden.

Dat kun men allemaal niet met Google search. Dan ben je uren bezig ipv minuten.
NIet alles wat je leest klopt haha. Het verschilt per model. Een model als Gemini 2.5 Flash non-thinking verbruikt een heel stuk minder dan iets als O3. Uiteindelijk wordt het probleem wel echt veel groter gemaakt dan het daadwerkelijk is.
Grappig, ik postte vanochtend dit topic omdat ik op zoek ben naar een AI chatbot die mijn bestanden kan gebruiken als bron... maar Google (online) is geen optie voor mij.
je kan gewoon een simpele LLM opzetten met lokale RAG. Volgens mij heeft Open-WebUI (zie github) hier support voor, maar dat heb ik zelf nog niet getest.

RTXChat, een tool van Nvidia die lokaal runt, schijnt dit ook te kunnen. Een eigen tool bouwen met RAG, is waarschijnlijk beter. Maar deze tool van Nvidia heb je binnen 10 minuten opgezet.

[Reactie gewijzigd door lars-h2017 op 2 mei 2025 12:43]

ah super aanbeveling, ziet er intteressant uit om mee te beginnen en ondertussen wat kennis rond RAG's op te doen.
RTX is volgens mij alleen voor Windows, dus dat is niet handig. Ik vond dat Open WebUI tamelijk ingewikkeld ogen... maar wellicht moet ik er nog eens naar kijken.
Valt beter mee dan je mogelijk denkt, Open WebUI verbindt zich naar de LLM's die jij instelt en je kan er dan gesprekken mee voeren. Niet enkel lokale maar ook publiek beschikbare zoals Chat GPT en Claude en Gemini.
Meerdere LLM's tegelijk bevragen of dezelfde vraag herhalen aan een ander model behoren zo tot de mogelijkheden. Zie het als een 'one stop UI' voor alle conversaties die je wil voeren of wil kunnen query-en.
Het draait ook heel makkelijk in een docker container.
Er zijn ook meer advanced mogelijkheden, daar ben ik minder mee bekend.
Dan moet ik maar eens op zoek naar tutorials.
En via docker? Op een nas, en dan verbinden met llm’s op mijn mac? Anders heeft dat niet veel nut, lijkt me.
Hangt een beetje van je use-case af. Als je modellen lokaal wil draaien op je laptop en een prompt in een command-venster (die zwarte vensters met witte letters zonder grafische interface) genoeg is, moet je geen moeite doen.
Als je zegt dat je een beetje wil experimenteren met verschillende modellen die je gaat opstarten en afzetten, kan het nuttig zijn om dit via een grafische interface te doen. Open WebUI is dan een mogelijkheid. Via een docker op je NAS kan je deze makkelijk op/down spinnen (of laten draaien, neemt niets van resources) in.
Je kan in dat geval de Open WebUI gebruiken om 'connections' in te stellen naar je lokale modellen op je MacBook, en tegelijk ook naar publieke modellen.

Als dit allemaal wat complex lijkt, installeer dan iets als 'jan.ai' op je MacBook, deze geeft ook een grafische interface om de modellen die je lokaal dan opstart te benaderen. Bij het uittypen van dit antwoord ben ik even gaan kijken en blijkbaar heeft Jan.AI ook een optie om bestanden lokaal in te lezen en er vragen over te beantwoorden, beetje wat NoteBook LLM ook doet.

Laat maar weten of ik je nog ergens mee kan helpen!
Thanks! Ik heb ondertussen Ollama draaien op mijn Mac. Ik heb Open WebUI draaien in een docker op mijn NAS. En al chattend met ChatGPT qdrant ook in een docker draaien... maar daar zie ik niets van terug. Het hele RAG deel is dus nog een beetje vraag.

Ik zal jan.ai eens bekijken. Maar ben wel beetje huiverig met de RAG opties. Vaak is het toch echt per bestand uploaden en vragen. Niet een map met "kennis".
Hoe gaat NotebookLM echt helpen bij leren? Gaat het ervoor zorgen dat studenten dingen beter onthouden, of wordt alles juist oppervlakkiger omdat AI het denkwerk doet?
Door structuur te brengen in (grote hoeveelheden of verspreide) data, deze makkelijk doorzoekbaar/bevraagbaar maakt, je kan helpen om samenvattingen te maken, etc.
Wil echter niet zeggen dat je niets meer moet doen en je kan natuurlijk argumenteren dat door een cursus zelf samen te vatten, je verplicht bent om delen over te schrijven/typen en de structuur echt moet kennen. Ben benieuwd wat dit voor de volgende generaties gaat betekenen.
Dat hangt af van de vraag die gesteld wordt, ik dacht dat een van de basis vragen het opzetten van een leerstructuur is, dit kun je zowel voor jezelf als als leraar doen. Van daaruit werk je verder.

Wat ik zelf doe is een podcast genereren van een boek en dat is dan de basis voor het verdere leerwerk. De podcast op zich kan al erg leerzaam zijn door de interactie tussen twee personen.

Daarnaast beheren wij een systeem waar zo'n 30 soms dikke pdf bestanden als documentatie bij zit, alleen al voor beheer en dat blijkt een prima vraagbaak geworden te zijn. Dat lukt met geen enkele lokale llm in een werkbaar tempo met deze kwaliteit.
Moet me echt dieper gaan verdiepen in de mogelijkheden van de verschillende LLM's die beschikbaar worden gesteld, klinkt heel interessant hoe je deze gebruikt.

[Reactie gewijzigd door symaedr op 4 mei 2025 20:49]

Dit gaat niet zozeer over een verschil in LLM's, maar het volwassen worden van verschillende soorten gereedschap op basis van Ai. NotebookLM is een stuk gereedschap wat werkt met en binnen de context van de documenten die men aanbied.

Deep research kun je een opdracht geven om iets uit te zoeken op het internet. Zo gaf ik Deep research de opdracht om uit te zoeken wat er nodig was voor een upgrade van Graylog 5.2 naar 6.0 op basis van RPM onder RHEL 8, wat de zaken waren waar rekening mee moet worden gehouden en wat de vereisten zijn. Het kwam met een complete instructie met een omissie er in. Dat is best knap.

Gemini wordt een soort persoonlijke assistent die je verschillende opdrachten kunt geven aangaande je eigen data binnen google, in het algemeen en verder daarbuiten. Zo vraag ik aan de auto om via whatsup een bericht aan iemand te sturen en dat wordt prima uitgevoerd.

Daarnaast heb ik een workflow in fabric.so om stukken te schrijven. De Ai daarin gebruik ik voor het verbeteren van tekst waardoor ik beter leer schrijven.

Willen we dat documenten/documentatie die we in Ai stoppen beter te ondervragen dan is het belangrijk om documenten meer context gedreven te schrijven om onvolledige antwoorden te voorkomen.

Het werken met Ai vraagt nog steeds gedegen kennis, tactiek en vooral het vermogen om als gebruiker goede vragen (prompts) te kunnen stellen.

Op dit item kan niet meer gereageerd worden.