Google Gemini 3.1 Pro kan beter redeneren en 'complexe problemen oplossen'

Google komt met zijn nieuwste AI-model: Gemini 3.1 Pro. Volgens de techgigant kan dit model een stuk beter redeneren en complexe taken uitvoeren. Een preview van het nieuwe AI-model komt vanaf nu beschikbaar voor consumenten en ontwikkelaars.

Google kondigde de release van het 3.1 Pro-model op donderdag aan. Het model is vooral gericht op het beter uitvoeren van complexe problemen, waarbij 'simpele antwoorden niet genoeg zijn'. Vorige week verscheen bijvoorbeeld al een grote update voor Gemini 3 Deep Think, waardoor de dienst beter werd in wiskunde en andere wetenschappelijke problemen. Volgens Google werden die verbeteringen onder de motorkap mogelijk gemaakt door Gemini 3.1 Pro.

In de aankondiging van vandaag richt de techgigant zich vooral op het maken van graphics en simulaties. Gemini 3.1 Pro kan volgens de techgigant complexere animaties en plaatjes maken dan Gemini 3, die ook interactief gemaakt kunnen worden. Denk aan een plaatje van een kameleon die met zijn ogen je muiscursor volgt.

Google liet ook complexere taken zien, waarbij het nieuwe AI-model bijvoorbeeld een simulatie van een zwerm spreeuwen maakte, waarbij het mogelijk is om het aantal vogels en hun bewegingen in real time aan te passen. In een ander voorbeeld maakte Gemini 3.1 Pro een live dashboard dat het ISS volgt via een linkje naar een api.

Google Gemini 3.1 Pro-ISS-dashboard
De ISS-tracker die Gemini 3.1 Pro heeft gegenereerd. Bron: Google

Betere benchmarkscores

Net als bij de release van vorige AI-modellen, deelt Google ook hier benchmarks in vergelijking met de modellen van andere bedrijven. In de Humanity's Last Exam-benchmark, die llm's ondervraagt over een groot aantal onderwerpen, scoort Gemini 3.1 Pro 44,4 procent en staat daarmee op plek 1, gevolgd door Opus 4.6 van Anthropic met 40,0 procent. Het voorgaande Gemini 3 Pro-model haalde 37,5 procent.

Vooral in de ARC-AGI-2-benchmark scoort het nieuwe model beter dan Googles vorige llm. Die benchmark bevat vragen die mensen kunnen beantwoorden, maar waar AI-modellen doorgaans moeite mee hebben. Het moet daarom een beeld geven over hoe goed een AI-model kan redeneren. Gemini 3 scoorde daar 31,1 procent en lag daarmee ver achter op concurrerende modellen van Anthropic en OpenAI. Het nieuwe 3.1 Pro-model haalt echter 77,1 procent en is daarmee koploper.

Volgens Google komt Gemini 3.1 Pro vanaf vandaag beschikbaar. Consumenten kunnen het nieuwe model gebruiken via de Gemini-app en NotebookLM. Voor ontwikkelaars wordt het nieuwe AI-model ook toegevoegd aan Gemini CLI, Google AI Studio, Android Studio en de Antigravity-programmeersoftware. Zakelijke gebruikers kunnen met Gemini 3.1 Pro aan de slag via Gemini Enterprise en Vertex AI.

Google Gemini 3.1 Pro-benchmarks
Bron: Google

Door Daan van Monsjou

Nieuwsredacteur

19-02-2026 • 19:19

55

Reacties (55)

Sorteer op:

Weergave:

Ik zal de zin en onzin van de technologie maar even laten voor wat het is, maar: indien de technologie wél zou brengen wat de verkoperspraatjes beweren, is google dan wel een partij aan wie de implementatie daarvan aan toe te vertrouwen is?
Bestaat er een mogelijk dat je dit soort reacties geeft op een ander topic ergens verscholen op het forum?

Ik word een beetje moe van dezelfde langspeelplaat die ik in elk AI topic lees: "AI is slecht, AI is geen AI, maar een domme LLM die niets begrijpt. AI wordt niks en gaat nooit wat worden. AI vreet te veel energie. Google/Microsoft/X/ is slecht. X is het slechtste van allemaal. De AI bubbel gaat morgen, overmorgen, volgend jaar barsten." GAAP..... ZUCHT.... VERMOEIEND....

Ik ben wel geinteresseerd in AI, de verschillende vendors en de ontwikkelingen daarin. En ik ben erg geïnteresseerd in wie waar goede ervaringen mee heeft...
Ik programmeer vaak complexe dingen met LLM's en probeer dus geregeld de verschillen tussen Google, Claude en Chatgpt. Maar Google weet het altijd wel erg mooi te verpakken, maar heeft het nooit gehaald bij hoe met name Claude functioneert, en zeker niet sinds Opus 4.5 en 4.6.

Kunnen programmeren is 1, maar logisch programmeren, er geen zooitje van maken, dat soort zaken daar mist het echt enorm bij Google, ook met Pro 3. Ik betwijfel of Pro 3.1 echt zoveel beter zal zijn.

Maar er zijn weinig mensen op internet die twijfelen aan de kracht van Claude en wel aan de kracht van Google. Maar ik snap Google heel goed, want het is aan hun alles er aan gelegen dat ze deze strijd winnen, maar voor nu? Ik betwijfel het .
Ik programmeer ook ontzettend veel met LLM's. En bijna altijd relatief eenvoudige dingen.
Daarbij programmeer ik vooral in Python/PHP/JS en sporadisch in Golang.

Zou het kunnen zijn dat model x erg goed is in taal y op complexiteitsniveau z?
Afhankelijk hoe goed zij getraind zijn in die programmeertaal?

Ik mis de specifieke benchmarks per taal...
Ze bestaan volgens mij wel...
(https://www.evidentlyai.com/blog/llm-coding-benchmarks)

Maar door de snelheid van ontwikkelingen... vind ik het toch beperkt bruikbaar.

Ik gebruik nu Codex 5.3. Werkt erg goed voor mijn soort programmeerwerk.
Ik zou met alle liefde willen overstappen naar Claude (of wat dan ook). Maar dan wel gebaseerd op objectieve resultaten voor wat betreft programmeren in de talen waarin ik programmeer.
Gemini 3 pro was best ok, fast was veel te veel hallucinaties. Ik kreeg gemini pro 1 jaar gratis bij de pixel 10 pro fold, maar ik moet zeggen dat ik toch regelmatig terug chatgpt gebruik. 3.0 pro was wel redelijk goed, maar antwoorden duurde ook heel erg lang. Ben benieuwd of er iets van verbetering daar in zit nu. Anderzijds gebruik ik chatgpt dan ook heel vaak nu, maar als die er niet uitkomt, kwam gemini 3.0 pro er in 70% van de gevallen wel uit.
Net even getest. AI-sycofantie (ja-knikkerij) blijft een hardnekkig probleem, ook in Gemini 3.1 Pro. Eerst gaf het een perfecte visuele analyse, maar zodra ik zei dat het niet klopte, klapte het model volledig om en verzon het onzin om mij maar ter wille te zijn. Zodra ik vervolgens zei dat de eerste analyse toch goed was, volgde er wéér een knieval. Geen greintje standvastigheid, helaas.
Ik vind het wel grappig dat Europa aan alle kanten aan het roepen is om minder te leunen op tech giganten van buiten EU. Maar die boot hebben we allang gemist als je het mij vraagt. Op het gebied van AI zijn we nergens. En ik ben wel van mening dat daar wel de toekomst ligt, of we nu willen of niet. Volgens mij is ASML onze reddende engel als het gaan om wereld belang. Maar verder.
Google blijft zo alweer een streepje voor op de concurrentie. Ik voorzie vooral OpenAi (Sam Altman) binnenkort weer paniekeren en weer naar code rood gaan, maar ik ben bang dat het een gelopen race is. Google heeft enorme diepe zakken en lijkt verticaal te kunnen integreren, zeker met hun TPU’s. Dat is een voordeel die OpenAi, met al hun externe gelden echt niet kunnen bijbenen. Sam Altman wil denk ik zo veel mogelijk concurrentie (zeker m.b.t. marketshare) voor blijven om een gigantische IPO te kunnen rechtvaardigen.

Enige jammere van Gemini is dat hun interface nog veel te wensen over laat, zeker de mogelijkheid voor mappen/archiveren wordt gemist.
Claude van anthrophic blijft voor mij wel de beste.
Claude is goed, maar je hebt minder requests per euro dan met Gemini of OpenAI.

Ik heb via het werk toegang tot Claude, CoPilot (office & github versie), OpenAI en Gemini. Tot op heden vind ik Gemini het prettigste om mee te werken om data te analyseren; bugs op te sporen, afbeeldingen te genereren (Nano Banana is cool), etc...

Ik heb vandaag 470 requests gedaan en +5M inputtokens verzonden.

Ik had eens aan CoPilot (office) gevraagd om 5 documenten te analyseren en de tekst logisch samen te voegen in een nieuwe bestand. Resultaat: 200 pagina's wordt plots 1 pagina.

Gemini: 200 pagina's worden 120 pagina's + uitleg wat hij gedaan heeft; wat dubbel was; schrijffouten eruit gehaald; logische onderverdeling in titels, etc...
Nagelezen en ik zou het zelf niet beter hebben gekunnen.
Wacht, je hebt 470 requests gedaan? Denk je dan zelf nog wel na of ben je inmiddels zo automatisch alles maar aan AI aan het vragen?


Voor de duidelijkheid, een werkdag heeft 8x60=480 minuten en dat is inclusief pauzes, koffie momenten etc.. je steld dus meer dan 1 vraag per minuut aan een AI, had je dit zelf al door? Klinkt alsof je behoorlijk afhankelijk bent geworden.
Neen, het klinkt alsof ik agents gebruik die ook onderling praten, wat evengoed requests zijn... Jij bent toch niet een van die mensen die denkt dat AI enkel een LLM is en enkel via die ene website gaat hé?
Je schrijft letterlijk
Ik heb vandaag 470 requests gedaan
Maar dan zeg je dat er onderling ook wordt 'gepraat'.... dat zijn dus geen requests die jij maakt....

En is de laatste zin een typefoutje?
Nagelezen en ik zou het zelf niet beter hebben gekunnen.
Want ja - als dat je grammatica niveau is dan is de AI inderdaad vrij snel beter.... :9
houd je je dan nog bezig met het energie vraagstuk en de enorme belasting voor het milieu?
Ik werk voor een firma die o.a. AI modellen maakt die dagelijks tientallen miljoenen keren inference doet. Dus neen, mijn 470 requests in mijn profiel zijn niet zo impactvol. Eens dat die 470 in een datacenter gebeuren en de inference van onze eigen modellen op eigen hardware op onze >30 locaties.
Google heeft net obligaties uitgegeven om de waanzin te financieren.
Die zitten er dus ook ver door met hun reserves, maar willen hun aandeel niet kelderen door er meer uit te geven.

Iemand moet op de rem gaan staan
Met hun cashflow kunnen ze die CapEx zeker wel financieren/verantwoorden, alleen dat is slimmer met hun 100 jarige obligaties, die uiteindelijk voordeliger zal uitvallen dan kort-termijn leningen.


Ik respecteer je mening, maar door die CapEx, ben ik juist enthousiaster geworden. CapEx is namelijk (over het algemeen) uitgave in harde infrastructuur/logistiek. Voor Google is dat onder andere hun Cloud, TPU’s etc. Dat die omhoog moeten geeft dus aan dat er enorme vraag en verwachte vraag naar is. Voor Google (als bedrijf) zijn dat positieve berichten.
Ja, ik denk dat het google zal worden voor algemene "ai" en dat er een paar kleine gespecialiseerde zullen overblijven. Maar...

De datacenters en energie centrales zullen hun waarde wel enige decennia houden.
de hardware zelf is over een jaar of 2-3 verouderd en niet langer energie-efficiënt genoeg om in operatie te houden, maar die kost ook miljarden.

Ze willen lopen voor ze kunnen stappen en de kosten daar van zijn te hoog imho
Ja, ik denk dat het google zal worden voor algemene "ai" en dat er een paar kleine gespecialiseerde zullen overblijven. Maar...
Ik denk dat je onderschat hoeveel AI producten Google heeft of gebruik maken van Gemini.


Ik noem enkele:

Antigravity - agentic vibe coding

Firebase studio - agent bovenop hun hostingplatform

Stitch - UI code creator

Opal - AI flow builder

NotebookLM - je persoonlijke kennisbank

Google AI modus

Ai workspace

Vertex - agent builder

En nog een aantal en natuurlijk alles wat in gemini of ai studio zit.
And next year candidates for the “killed by google” list are …
Dat is Michael Burry’s thesis (i.i.g. een veel kortere afschrijfperiode van de GPU’s), en deze bedrijven zullen zeker niet vies zijn van wat boekhoudtrucjes, maar ik geloof niet dat het zo een doomscenario zoals Burry wil doen geloven. En zelfs als deze GPU’s te oud worden voor de primaire doeleinden (wat daarnaast nog minder geld voor Google, gezien ze hun eigen TPU’s gebruiken), wil dat niet zeggen dat ze geen restwaarde hebben, bijvoorbeeld voor datacenters van externen of cloudcompute.

De waarheid ligt naar mijn mening ergens in het midden.

Voor de rest met je eens. Ik zie voor nu vooral Google (allround) en Anthropics (codering) als de winnaars, maar Google heeft ook een 15% stake in Anthropics als ik me niet vergis. Misschien dat OpenAi wat weerstand kan bieden met Ai-agents. en laten we de Chinezen niet vergeten, die vooral uitsteken met hun efficiëntie.
Maar Nvidia ook. Ze zijn met OpenAI een overeenkomst aangegaan voor 100 miljard. Het verschil is wel dat Alphabet winst maakt en OpenAI niet.
Nvidia ook wat? Nvidia maakt geen LLMs, tenminste niet dat ik weet.
Tuurlijk maken ze modellen; soms wel SLM die LLM genoemd wordt, maar kom...
Ze hebben NVIDIA ACE; wat een samenraapsel is van veel AI modellen. STT, TTS, LLM, allerhande bewegingen en animaties met AI, etc... Straks maken ze nog een AI om AI ingame te simuleren.

Maar dus de dialoog met de NPC's is een LLM. Deze heeft Nvidia gemaakt in samenwerking met Mistral AI. (Mistral-Nemo-Minitron)
Oh cool, dat wist ik niet!
Je kan eventueel via perplexity gebruik maken van Gemini waarbij je dan wel happen etc hebt
Uiteraard offtopic, maar toch relevant vwb AI. Ondertussen heeft China al een martial arts leger klaar staan terwijl wij worden verblijt met nog beter nadenkende modellen. Uiterst zorgwekkend als je het mij vraagt.

https://vxtwitter.com/Whi.../2023416426984288506?s=20
Totdat bewezen is dat die robots niet ingestudeerd zijn, ben ik nog niet overtuigd. Martial arts is perfect in te studeren, dus bewijst nog niks.
Kunnen mee doen met Hollands Got Tallent


Ik kan de link tussen een robot die beweegt en Ai, die redeneert niet goed leggen?
Das een veredelde circusact.
In een moderne oorlog is hand to hand combat extreem zeldzaam.
Ja het is verboden om ze geweren te geven natuurlijk.
Dat is echt heel indrukwekkend!
Interessant dat Gemini 3.1 Pro vooral inzet op beter redeneren i.p.v. alleen grotere context of meer parameters. Benchmarks zijn leuk, maar uiteindelijk telt of dit ook leidt tot consistenter logische antwoorden en minder hallucinations in echte workflows. Ben benieuwd hoe dit zich in de praktijk verhoudt tot concurrerende modellen, vooral bij multi-step reasoning en code-taken.
Redeneren klink leuk, maar als het uit blijft gaan van hallucinaties heb je er nog minder dan niets aan.


Het ligt er natuurlijk aan hoe en waarvoor je het gebruikt, maar in mijn werk als editor is de tijdswinst nog steeds minimaal, het scheelt me misschien een uurtje per dag, maar ik vraag me vrijwel dagelijks af of het de frustraties eigenlijk wel waard is.
Redeneren. Problemen oplossen. Pff laat ze maar es een model maken dat geen aannames doet, en durft te zeggen dat ie iets niet weet. Praten we dan verder.
Mensen doen zelf ook veel aannames (ookal zijn we er 10x beter in) dus denk dat de AI het daarvan heeft.

Anyways, je kan gewoon een instructie geven dat hij dit niet meer gaat doen

Om te kunnen reageren moet je ingelogd zijn