Google maakt Deep Think-model beschikbaar voor AI Ultra-abonnees

Google maakt het Gemini 2.5 Pro Deep Think-redeneermodel beschikbaar voor Google AI Ultra-abonnees, meldt het bedrijf. Het model maakt volgens Google gebruik van parallelle denktechnieken om creatievere en meer doordachte antwoorden te geven.

Het Deep Think-model, dat in mei werd aangekondigd, maakt gebruik van parallelle denktechnieken, waarbij het meerdere ideeën tegelijkertijd genereert en overweegt. Volgens Google kan het model deze ideeën ook herzien of combineren. Het bedrijf zegt ook nieuwe reinforcementlearningtechnieken te hebben ontwikkeld die het model stimuleren tot deze meer uitgebreide manier van redeneren.

Deep Think behaalde vorige maand een gouden medaille op de Internationale Wiskunde Olympiade door 35 van de 42 punten te scoren. De versie die nu verschijnt, is een variant van dat model, die volgens Google sneller en bruikbaarder voor dagelijks gebruik is. Op basis van interne evaluaties zou dit model nog steeds brons scoren op de Internationale Wiskunde Olympiade van 2025. De versie die goud behaalde, wordt gedoneerd aan een 'kleine groep wiskundigen en academici'. Om wie het precies gaat, is niet bekend.

Deep Think is beschikbaar in de Gemini-app voor gebruikers die een Google AI Ultra-abonnement hebben. Dat abonnement kost maandelijks 275 euro. Google werkt nog aan toegang tot Deep Think via de Gemini-api.

Door Imre Himmelbauer

Redacteur

01-08-2025 • 18:46

28

Reacties (28)

Sorteer op:

Weergave:

goeiedag..275 euro.. Ik vraag me af wat de toegevoegde waarde is voor een gemiddelde gebruiker..
Mischien is het wel waardevol voor r&d en universiteiten..i dunno
Dit is nog maar het begin. We gaan richting de 2-3000 euro in de toekomst per maand. Werkgevers zullen dan een overweging maken tussen mensen of agents. Je snapt natuurlijk wel welke keuze er gemaakt gaat worden.
Ik geef zelf best veel uit aan LLM's omdat ik het OpenAI pro abbo heb. Dit verdien ik in productiviteit tijdens het werk heel eenvoudig terug, dus voor mij is het een no-brainer.

Maar ik verwacht toch niet snel dat het richting de bedragen gaat die jij noemt. Simpelweg door concurrentie van lokaal draaiende modellen. Wat ik nu zie is dat de modellen die je zelf kan draaien ongeveer 6 tot 8 maanden achter lopen op de betaalde cloud LLM's. (Kijk naar bijvoorbeeld GLM-4.5 series)

Op een bepaald moment zijn LLM's zo goed dat het minder uit maakt dat je een paar maanden achterloopt.

En de hardware waar LLM's op draait, wordt straks ook steeds betaalbaarder. Zeker nu Apple en AMD hele snelle iGPU's hebben, die van de zelfde RAM gebruik maken als de CPU, zal dat langzaam steeds beter gaan. Nu is vaak geheugenbandbreedte nog een bottleneck (behalve voor de M3 Ultra), maar dat zal ook opgelost worden. En de NPU's die nu nog vaak niet benut worden, zullen in de toekomst ook benut worden. Dan komt er een moment dat je op een computer van een paar duizend euro heel goed een groter (>100B) LLM kan draaien, en dan gaan dit soort bedragen niet betaald worden.

Ik zeg niet dat dan massaal mensen lokale LLM's gaan draaien, maar ik voorzie dat de concurrentie van lokaal draaien de prijzen voorlopig onder de 1000 euro per maand gaat houden. (inflatie daargelaten)
Waar haal je dat bedrag vandaan?
Token limits, ook deze AI Ultra abonnementen zijn niet vrij van limieten en throttling/ratelimiting. Losse API keys met pay-per-token afhankelijk van je toepassing kunnen goedkoper zijn en/of sneller.

[Reactie gewijzigd door GewoonWatSpulle op 1 augustus 2025 19:52]

*"ChatGPT says No"
En als genoeg personeel is vervangen en er geen nieuwe aanwas is. Dan kunnen ze naar hartelust de prijzen nog verder opschroeven.
Levert mij aanzienlijk meer op dan het kost alleen al op tijdswinst in de spreekkamer. Nog los van de kwaliteit. Hoef er niet lang over na te denken eigenlijk
Ik ben benieuwd waar je het voor gebruikt. Je bent arts neem ik aan :)
Klopt. Ik gebruik een transcriptie van het gesprek om het dossier te maken brief te schrijven etc. Ik hoef vrijwel niets meer te typen het consult en de patiënt kan het verslag direct lezen en beoordelen.
We zijn nu bezig mbv ai dossiers te doorzoeken of relevante informatie te distilleren. Voeg daar een goede voorbereiding aan toe met slimme vragenlijst en verificatie van medicatie en allergie en je komt een heel eind.
Komt nog bij dat de diagnostiek beter wordt en order management etc.

We staan nog maar aan het begin maar de potentie is er echt wel, voor het ene specialisme meer en sneller dan het ander.
Ik ben super blij dat jij niet mijn huisarts(?) bent. Diagnostiek en checken of medicatie (nog) in orde is zou ik liever over laten aan iemand die er voor gestudeerd heeft en niet een LLM.
Ik ben super blij dat jij niet mijn huisarts(?) bent. Diagnostiek en checken of medicatie (nog) in orde is zou ik liever over laten aan iemand die er voor gestudeerd heeft en niet een LLM.
Jij gebruikt in je werk ook geen enkel technisch hulpmiddel?

Als je een technisch hulpmiddel gebruikt, betekend dat niet dat je iets totaal aan het hulpmiddel over laat. Mijn auto rijd ook de berm in als ik het stuur niet vasthoudt, dat maakt mijn auto nog niet overbodig of onveilig. Ik moet de auto gewoon verstandig gebruiken, net zoals iemand die zijn LLM gebruikt dat verstandig moet doen.
Ik wil inderdaad niet dat gevoelige gesprekken opgenomen worden en door een server in verweggistan samengevat worden. Vaak zat gezien dat transcriptiesoftware van de rails gaat, fout wordt getranscribeerd, en dat een LLM er dan complete onzin uit hallucineert. Garbage in garbage out.
Gast, dit slaat echt nergens op. De man heeft het erover dat de patient het verslag meteen kan teruglezen en beoordelen. Kan hij trouwens ook.

Het gaat om veranderingen aan het hele proces, niet alleen ff een llm inschuiven
In de huisartsenpraktijk wordt ook steeds meer Juvoly AI gebruikt. Die vat het gesprek samen en noteert het in het dossier. absoluut niet 100% dus altijd nakijken en verbeteren, maar het is een handig hulpmiddel. Met nadruk met hulp, dus geen vervanging!
Als je geen idee hebt waar je het over hebt kun je je gedachten beter voor jezelf houden.
Het zijn hulpmiddelen, geen vervangers.
In plaats van gewoon te oordelen kun je ook vragen hoe het geregeld is en werkprocessen ingericht zijn. We gaan echt niet over 1 nacht ijs
Hoezo is dit arrogant? Hij wordt aangesproken op basis van aannames en reageert met dat het beter was om eerst navraag te dan in plaats van gelijk conclusies te trekken. Lijkt mij heel redelijk.
Omdat iemand allerlei domme aannames doet? En niks te beroerd is daar een waardeoordeel aan te verbinden?
Ik ben helemaal geen huisarts? Hoe kom je daarbij?

[Reactie gewijzigd door gaskabouter op 2 augustus 2025 16:26]

Ik denk dat een gemiddelde gebruiker inderdaad niet het duurste abonnement nodig heeft. Zelf betaal ik 100 euro per maand voor Claude (Code) en de productiviteit die het me oplevert is ordes groter dan die 100 euro. Indien ik tegen de limieten op zou lopen (wat nog niet het geval is) zou ik ook niet lang twijfelen om 200 te betalen.
En heeft er alles mee te maken dat ze nu in de groei fase zitten. Verlies neemt men nu voor lief
Ik lees 275 per 3 maanden. Nog steeds een berg.
Zodra google dit via API uit brengt, of icm met een AI browser zoals comet, is dit een no-brainer. Voorlopig is m'n AI rekening al even hoog genoeg :) :
- $250 Perplexity (vanwege comet, doet het redelijk&beste tov alle andere operators, maar sta open voor andere local browser-integrated tips)
- $25 replit (vibe coding en hosting voor bv mn websites en API testing enzo, en andere Claude klussen), plus circa $200 in de maand voor Claude opus credits voor moeilijkere taken.
- OpenAI Pro (40$ ofzo?)
- Gemini 2.5 Pro $0 , gratis via aisstudio

En ja dat is een hoop geld, maar zelfs voor een klein bedrijfje scheelt me dat meer in medewerker kosten, en tevens is dit echt de tijd om bij te blijven qua AI tool kennis
Schrik, 275 euro, dat is dan toch echt meer iets voor de pro markt.
Ik vind het jammer om te zien dat voor zulke prijzen de limieten zo laag zijn (User Reports geven aan 5 Deep Thinking prompts per dag), maar dat laat ook gelijk zien dat scalability nog steeds op de slimste modellen een probleem is.

Recentelijk heeft Anthropic ook al nieuwe limieten moeten stellen op hun modellen voor hun duurste abbonement. De algemene gebruiker moeten ze natuurlijk winst op maken, maar de top 2/1% van gebruikers kunnen hun zo veel verlies brengen blijkbaar dat dit nodig was. De rare limits hebben impact op de top 5% van gebruikers volgens hun, maar bij Claude, net zoals bij ChatGPT, en dat zal ook gebeuren bij Google, raak je deze limieten natuurlijk alleen wanneer je het model echt nodig hebt.

Dit soort limieten zijn er voornamelijk voor mensen die volledige automatische tools bovenop Claude bouwen zodat de AI autonoom aan het werk gaat, etc. Blijkbaar had de top gebruiker van Claude Code Anthropic tienduizenden dollars gekost... Maar gebruikers verkopen toegang tot accounts, etc, waardoor de prijs natuurlijk voor de algemene gebruiker alleen maar omhoog gaat.

Overigens ben ik verbaasd over de kwaliteit van antwoord van Deep Thinking tot nu toe. In wiskunde lijkt het model erg sterk, waar Google veel op heeft gefocust, maar de lange wachttijden (kan 20+ minuten) kijken me niet sterk om te gebruiken als gebruiksmodel. Ik moet nog zien hoe goed het model echt is vergeleken met bijvoorbeeld o3 of Opus, maar gezien de benchmarks, en hoe goed ik 2.5 pro al vond, denk ik dat dit Deep Thinking best insane is.

Op dit item kan niet meer gereageerd worden.