Google brengt Gemini 2.5 Flash-Lite en stabiele versies 2.5 Pro en Flash uit

Google brengt Gemini 2.5 Flash-Lite in preview uit. Volgens de techreus gaat het om het 'snelste en kostenefficiëntste 2.5-model tot nu toe'. De stabiele versies van Gemini 2.5 Pro en Flash zijn nu ook beschikbaar.

Het Gemini 2.5 Flash-Lite-model moet volgens Google sneller antwoorden dan 2.5 Flash. Volgens de techgigant is 2.5 Flash-Lite ontworpen voor toepassingen waarbij een hoog volume maar een lage latency nodig is, zoals vertalingen en het categoriseren van teksten of afbeeldingen. Verder moet 2.5 Flash-Lite over het algemeen beter presteren op het gebied van programmeren, wiskunde, wetenschap, redeneren en multimodale taken.

Gemini 2.5 Flash-Lite biedt net als de andere 2.5-modellen een contextlengte van 1 miljoen tokens. 2.5 Flash-Lite is met 0,10 dollar per miljoen inputtokens kostenefficiënter dan andere Gemini-modellen. Zo kost 2.5 Pro 1,25 dollar per miljoen inputtokens, terwijl 2.5 Flash 0,30 dollar per miljoen inputtokens kost (voorheen 0,15 dollar).

De techgigant maakt ook bekend dat Gemini 2.5 Flash en 2.5 Pro nu algemeen beschikbaar zijn. De experimentele versies van de 2.5-modellen werden in maart aangekondigd. Google bracht eerder deze maand al een verbeterde versie uit van Gemini 2.5 Pro in bèta. Volgens 9to5Google ondersteunt Gemini nu ook video-uploads, waardoor de chatbot na het analyseren van de beelden hierover vragen kan beantwoorden.

Gemini 2.5 Flash-Lite vergelijking

Door Sabine Schults

Redacteur

18-06-2025 • 13:20

16

Reacties (16)

Sorteer op:

Weergave:

De benaming behoeft misschien nog een heroverweging...
Pun intended vermoed ik... Wel grappig, was mij nog niet opgevallen :)
Ik wil je dan een +1 geven, maar ik vraag me af in hoeverre dit "Nette ontopic reacties met kennis die algemeen bekend is." is :)
Met het woud aan modellen heb ik zo onderhand een chatbot nodig om te vragen welke vraag ik het beste aan welk model dien te stellen... 8)7
Daarvoor bestaat in Azure al de model-router:
https://learn.microsoft.com/en-us/azure/ai-services/openai/concepts/model-router
By evaluating factors like query complexity, cost, and performance, it intelligently routes requests to the most suitable model.
Kan handig zijn, kende ik nog niet dank!


De onderliggende modellen in deze model-router hebben als nieuwste versie april dit jaar. Dan hebben ze toch niet echt kennis van de nieuwste ontwikkelingen zoals deze Gemini 2.5 versies voor een goed advies?
Dit is toch ook waar in ieder geval perplexity voor gemaakt is. Dat is effectief een fusion tussen hun modellen waaronder de grote namen.
En daar kun je dus kiezen uit BEST of specifieke modellen.
Ik vind Gemini vooralsnog het fijnste om mee te werken omdat het voor mij een alleskunner is.
Het taalgebruik en de kwaliteit van de output is meer dan prima. Het pro model doet me een beetje denken aan Perplexity qua diepgang en reasoning.

Wat ik wel vreemd vind is de kloof in beloofde / released features en wat er echt bruikbaar is.
Kan bijvoorbeeld nog steeds geen foto uploaden en stapsgewijs dingen editen. Dan genereerd hij een totaal nieuwe foto.
Weet niet of het aan de EU regels ligt of dat dingen in waves uitrollen. Het is wel irritant.
Vind 'm ook fijn werken vooral het grote context window en omgang met complexe Excel formules. Enige wat jammer is, is de drang om overal comments te plaatsen, zowel in code als in Excel formules (waar het uberhaupt niet kan).
Gemini heeft tegenwoordig de optie om informatie te onthouden, waarmee je consistent gedrag jan afdwingen. In de app is er gewoon een "saved info" knop onder je account, neem aan dat dit in de browser ook aanwezig is. Als je hierin iets zegt als "Minimal to none comments in code" verdwijnt de absolute bijbel aan comments ook netjes. Ben het wel eens dat het standaard echt overdreven veel is
Heb je wel eens geprobeerd een Gem te maken, waarin je je voorkeuren / context kan aangeven. Wellicht dat dat helpt?
Ja eens.

Ik ben nog erg aan het twijfelen tussen gemini advanced en gpt plus.
Ik ben zeer onder de indruk van de schrijfstijl en compleetheid van gemini en er komt gelijk een fijn en leesbaar document uit met voldoende context. Gpt is veel strakker, zakelijker en voelt meer als ai.

Maar die speech functie van gpt is weer insane.
Aangezien het vast niet om appjes naar naasten gaat zou ik beide aanvragen en declareren. Een compris sluiten klinkt duurder.
Grappig dat je zegt dat pro op perplexity lijkt, in theorie kan dat natuurlijk hetzelfde zijn aangezien gemini daarin zit. Maar afhankelijk van de keuze van perplexity kan het ook 1 van de andere zijn.
Misschien is dit een domme opmerking maar ik dacht dat Gemini Pro in ieder geval alleen gratis ook te gebruiken was zolang hij in preview/niet released was. Nu dat wel is zie ik hem er nog steeds tussen staan.
Verder zou flash lite al hier beschikbaar moeten zijn if niet? Dat mis ik, maar zie zelf vooral het er nog niet tussen staan.
Ik zie hem alleen in AI studio maar niet de app.

Voor de liefhebbers een hele snelle (haha) benchmark. En nee het is niet het beste Engels, maar voor prompts die ik dat vaker niet omdat ik gewoon zo snel mogelijk van idee/vraag naar resultaat wil. Kan het ook in het Nederlands, vaak wel maar he. #stonecoleenglish

PROMPT:
Could you compare price of types of always online storage. Specifically some service like Google Photos, OneDrive or Dropbox Vs a NAS at home using a HDD or a laptop at home with an attached shared HDD over SMB or a Nextcloud service with electricity cost equal to 0.20 euros/kwh.

Output was gelijkwaardig, in depth en goede layout.
Flash lite deed het in 12 seconden, flash in 33 inclusief ongeveer 12 seconden thinking en pro voor de leuk 48 s inclusief 20 s thinking.

[Reactie gewijzigd door PaulHelper op 18 juni 2025 16:34]

Gemini kan de via stembediening nog niet eens het verschil herkennen tussen Peter en Pieter (Ik spreek Nederlands tegen het ding).

Vertaalt het van Nederlands naar Engels, verzint ie een antwoord in het Engels en vertaalt dat naar Nederlands? Want anders kan ik het niet verklaren.

Op dit item kan niet meer gereageerd worden.