Google brengt Gemini 2.5 Flash uit waarbij redenering kan worden uitgeschakeld

Google heeft een versie van Gemini 2.5 Flash beschikbaar gemaakt. Die nieuwe versie van het model is volgens Google voornamelijk efficiënter en goedkoper in gebruik, onder andere omdat het mogelijk is om de redeneercapaciteiten aan en uit te zetten.

Gemini 2.5 FlashGoogle zegt dat het Gemini 2.5 Flash beschikbaar maakt als previewversie. Gemini is dan beschikbaar via zowel de Gemini-app als via de api in Google AI Studio en Vertex AI, zodat ontwikkelaars het model kunnen inbouwen in hun software. Het Flash-model is een opvolger van Gemini 2.0 Flash dat in december van vorig jaar uitkwam.

Gemini 2.5 Flash heeft volgens Google 'een grote upgrade van zijn redeneermodellen' gekregen In sommige benchmarks, met name die rondom wiskundige en wetenschappelijke vraagstukken zoals de AIME-competitie, maakt versie 2.5 volgens Google grote sprongen. In benchmarks rondom bijvoorbeeld het analyseren van afbeeldingen is de verbetering tegenover versie 2.0 iets minder groot.

Het model heeft daarnaast volgens Google een goede prijs-outputverhouding. Die ligt in de basis wel iets hoger dan voorganger Gemini 2.0 Flash, maar Google zegt dat zowel de input- als outputprijs per miljoen tokens nog steeds lager ligt dan bij veel alternatieve llm's. Dat betekent dat gebruikers minder snel aan een limiet zitten als ze meer tokens verbruiken en dat ontwikkelaars goedkoper uit zijn. Bovendien kan het redeneermodel, dat veel kost per token, handmatig worden in- en uitgeschakeld zodat ontwikkelaars hun kosten kunnen drukken.

Door Tijs Hofmans

Nieuwscoördinator

18-04-2025 • 07:44

18

Submitter: Balance

Reacties (18)

18
18
9
2
0
6
Wijzig sortering
Hey zou fijn zijn als de gratis versie net als Chat GPT je voorgaande gesprekken onthoudt en kan implementeren in huidige antwoorden. Merk toch dat dat wel een gemis is als ik Gemini gebruik.
Een omweg die je zou kunnen gebruiken is als je klaar bent met een chat, vragen of gemini een uitgebreide recap wilt schrijven van de punten in de chat. Dan copy and paste je die in de nieuwe chat.
ik weet niet of je documenten kunt uploaden in de gratis versie, maar dat zou je ook nog kunnen doen om hem een context te geven.
Ik heb heb dat ook wel en om eerlijk te zijn is het jammer dat gemini me wel kan vertellen wat er op een foto staat, maar me dan niet iets kan laten zien wat er op lijkt op internet, Het is nog beperkt en is qua communicatie anders dan google assistant en dat zou echt ooit meer in elkaar moeten vloeien als een enkele app. Het is nu allemaal voor mijn gevoel niet af.
Oke, na het lezen van dit artikel heb ik werkelijk geen idee waar het over gaat. "Redeneercapaciteiten" Lijkt mij iets met taalgebruik, maar ik lees ook iets over AI en Wetenschappelijke en wiskundige vraagstukken.
Er is sprake van Flash, maar dat heeft denk ik geen betrekking op Flashgeheugen en die LLM (waarbij ik dus steeds aan de Lunar Landing Module, eigenlijk LM moet denken) afkorting die ik tegenwoordig in 1 op de 3 artikelen tegenkom zie ik ook weer voorbij schuiven.

Nee echt begrijpelijk Nederlands is het voor mii niet. Ik snap inmiddels wel dat ik het, niet werkende in de ict ofzo, het niet meer kan bijbenen.

Ik ga eens googelen en dan lezen wat er nu allemaal staat..
Het is natuurlijk een tech-magazine. Ik lees, pakweg, ook niet de Artsenkrant en ik ga op het forum daar (denkbeeldig) ook niet rondbazuinen dat ik er geen jota van begrijp wat ze daar allemaal schrijven omdat ik geen medische opleiding gevolgd heb :)
Dat klopt en ik lees hier al jaren de artikelen, maar dit gaat mij dus boven de pet. Ten tijde van mijn MTS electronica 1980 - 1985 was het allemaal iets anders. Een inleidend stukje zou verduidelijking kunnen geven. Maar googel is je vriend zegt men altijd, alhoewel dat hier ook nog al eens zwaar wordt bevochten en bekritiseerd.
Mijn MTS-EC periode was van 85 tot 90 en ik snap wel wat je bedoeld. Ik ben daarna in de IT terecht gekomen dus ben bijgebleven. Maar vrienden van vroeger kijken mij soms ook aan alsof ze water zien branden als ik het hier over heb. In "onze tijd" was computertechniek onderdeel van de elektronica opleiding. Nu is dat een aftakking daarvan.
Voor een heel groot deel is het natuurlijk een kwestie van interesse. Als je interesse hebt in dit soort zaken dan verdiep je je, maar voor een ander deel is het ook het luie schrijven van tegenwoordig. Een paar basisregels over hoe je een artikel schrijft worden tegenwoordig niet meer toegepast, zoals bijvoorbeeld: Afkortingen altijd, ten minste 1x, helemaal uitschrijven en Complexe begrippen in een voetnoot kort beschrijven. En op internet is het niet zo moeilijk om een begrip of afkorting met een hyperlink of een html element verder te verduidelijken. Maar ook dat lijkt teveel moeite voor veel schrijvers.

Maar goed, ik zal je vragen proberen te beantwoorden.
Een LLM (Large Language Model) is een programma dat op basis van complexe berekeningen (Algoritmes) op een natuurlijke manier taal kan genereren dat past in de context. Dus je stelt een vraag en je krijgt antwoord en het lijkt daardoor alsof je met een mens praat. Men noemt dit AI (Artificial Intelligence) alhoewel je daar een filosofische discussie over kunt voeren. Als je een AI met een andere AI laat praten dan zou je dat kunnen vergelijken met hoe wij met onszelf praten in ons hoofd. Men noemt dat "Redeneren" (ook hier kunnen we filosofisch wellicht wat kanttekeningen plaatsen). Dus jij stelt een vraag aan AI, die gaat met kopieën van zichzelf in gesprek en formuleert dan een beredeneert antwoord.
Flash is simpelweg de naam van (een versie van) de AI die Google ontwikkelt.

[Reactie gewijzigd door EvertX op 18 april 2025 11:11]

En de grap is nu dus als je zo naast Googlen (wat je in een eerdere comment aanhaalde) ook een account aanmaakt bij bijvoorbeeld chatgpt, je dit nieuws artikel in de prompt (input veld) stopt en dan vraagt of hij je het uitlegd als een 15 jarige (dat is een prompt die ik zelf ook geregeld gebruik) dat je enorm complexe dingen uitgelegd kan krijgen in eenvoudig te begrijpen taal.

Je zult zien dan dat je heel snel zal gaat oppakken en dat de woorden AI, flash, gpt, claude, perplexity, llm, prompt, context window, model, etc etc gewoon mainstream woorden gaan zijn :)
Houd het erop dat Google Gemini 2.5 alleen gebruikt kon worden waarbij het de hele denkwijze liet zien bij het beantwoorden van een vraag.
Dat vertraagd het antwoord wel flink, maar het is wel interessant om te zien hoe de AI je vraag interpreteert en daarna redeneert hoe hij het moet beantwoorden.

Dit is nu weg.
Heb zelf niet getest of het dan sneller je vragen beantwoord maar gok dat dat wel het geval zou kunnen zijn.
Uhm gebruik anders een LLM om je op weg te helpen met het snel begrijpen hiervan 😀

Zie dit, dit maakt het wmb duidelijk:
https://claude.ai/share/e42981b9-d16f-4faf-96e4-b4fad45fec37

[Reactie gewijzigd door kamerplant op 18 april 2025 08:05]

Goed dat je de vragen van @paulwump hebt laten beantwoorden door Claude en de link hier deelt.

Voor mensen die de link openen, klink op "show content" en scroll helemaal omhoog. De termen zijn netjes uitgelegd in begrijpelijk Nederlands. Direct onder de kopjes waar ze gebruikt worden.
onder andere omdat het mogelijk is om de redeneercapaciteiten aan en uit te zetten.
Ik heb wel eens met DeepSeek gespeeld, en werd gek van de redenering die altijd zo weergegeven was alsof ik met een mens van vlees en bloed aan het chatten was.
Okay, so I'm trying to figure out how Jason Bourne got stranded on Mars. Hmm, that's an interesting question
Ik vind het lichtelijk storend maar acceptabel als mensen in een conversatie "Hmm"zeggen. Ik vind het nog iets storender als mensen in een chat, maar het geeft aan dat ze bezig zijn. In een forum-post of e-mail is "Hmm" naar mijn mening volslagen overbodig, want daarin hoef je niet aan te geven wanneer je nadenkt. Een AI die "Hmm" schrijft gaat wat mij betreft alle perken te buiten.

Ik heb daarbij het idee dat dit het hele proces vertraagt. Het kan natuurlijk dat deze redenatie het zoekresultaat beter maakt, en dat de redenatie verbergen de totale wachttijd niet verlaagt, terwijl de redenatie overslaan betekent dat je minder goede resultaten oplevert.

offtopic:
Het is verbazingwekkend hoe slecht LLM's de relatie tussen Jason Bourne en The Martian kunnen leggen, wellicht omdat ze de films niet gezien hebben waardoor de uiterlijke gelijkenis tussen Jason Bourne and Mark Watney ze volledig ontgaat

[Reactie gewijzigd door 84hannes op 18 april 2025 09:21]

offtopic:
Ik denk dat een AI helemaal van slag raakt als die er achter komt dat Dr Mann uit Interstellar eigenlijk Mark Watney is .. maar van naam is veranderd nadat hij met zijn Mars aardappelen de vernietiging van de planten op aarde op zijn geweten had.
Redenatie is niet nodig als de opgegeven prompt beter zou zijn. Maar de praktijk is dat veel gebruikers een rommeltje van hun prompt maken. Dan is het fijn een soort van pipeline die wat automatische redenering doet voordat die maar klakkeloos onzin terug begint te kramen.

Het eenvoudig aan of uit zetten van redeneringen helpt mij wel iig.

De grap is eigenlijk hoe meer tijd je de AI geeft om te redeneren hoe beter het antwoord zal zijn. En ik dacht dat de beste redenatie tijd tussen de 30 en 45 sec ligt (uiteraard afhankelijk van heel veel factoren).

Als je vraag is; wat is de hoofdstad van Nederland dan heeft dat geen redenering nodig.

Maar de vraag of de kip of het ei eerder was kan wel wat redenatie gebruiken ;)
Kan Gemini nu ook mijn Home opdrachten uitvoeren zoals het aanpassen van mijn thermostaat instelling want tot nu toe zegt hij(of zij) dat niet te kunnen en schakel ik maar weer terug naar Assistant op mijn smartphone.
@TijsZonderH
Die ligt in de basis wel iets hoger dan voorganger Gemini 2.0 Flash, maar Google zegt dat zowel de input- als outputprijs per miljoen tokens nog steeds later ligt dan veel alternatieve llm's.
"later"?
Gemini 2.5 pro is super goed in coding. Ben overgestapt van chatgpt plus sinds 2 weken. scheelt me immens veel tijd!

Op dit item kan niet meer gereageerd worden.