Google Gemini 3.1 Pro kan beter redeneren en 'complexe problemen oplossen'

Google komt met zijn nieuwste AI-model: Gemini 3.1 Pro. Volgens de techgigant kan dit model een stuk beter redeneren en complexe taken uitvoeren. Een preview van het nieuwe AI-model komt vanaf nu beschikbaar voor consumenten en ontwikkelaars.

Google kondigde de release van het 3.1 Pro-model op donderdag aan. Het model is vooral gericht op het beter uitvoeren van complexe problemen, waarbij 'simpele antwoorden niet genoeg zijn'. Vorige week verscheen bijvoorbeeld al een grote update voor Gemini 3 Deep Think, waardoor de dienst beter werd in wiskunde en andere wetenschappelijke problemen. Volgens Google werden die verbeteringen onder de motorkap mogelijk gemaakt door Gemini 3.1 Pro.

In de aankondiging van vandaag richt de techgigant zich vooral op het maken van graphics en simulaties. Gemini 3.1 Pro kan volgens de techgigant complexere animaties en plaatjes maken dan Gemini 3, die ook interactief gemaakt kunnen worden. Denk aan een plaatje van een kameleon die met zijn ogen je muiscursor volgt.

Google liet ook complexere taken zien, waarbij het nieuwe AI-model bijvoorbeeld een simulatie van een zwerm spreeuwen maakte, waarbij het mogelijk is om het aantal vogels en hun bewegingen in real time aan te passen. In een ander voorbeeld maakte Gemini 3.1 Pro een live dashboard dat het ISS volgt via een linkje naar een api.

Google Gemini 3.1 Pro-ISS-dashboard
De ISS-tracker die Gemini 3.1 Pro heeft gegenereerd. Bron: Google

Betere benchmarkscores

Net als bij de release van vorige AI-modellen, deelt Google ook hier benchmarks in vergelijking met de modellen van andere bedrijven. In de Humanity's Last Exam-benchmark, die llm's ondervraagt over een groot aantal onderwerpen, scoort Gemini 3.1 Pro 44,4 procent en staat daarmee op plek 1, gevolgd door Opus 4.6 van Anthropic met 40,0 procent. Het voorgaande Gemini 3 Pro-model haalde 37,5 procent.

Vooral in de ARC-AGI-2-benchmark scoort het nieuwe model beter dan Googles vorige llm. Die benchmark bevat vragen die mensen kunnen beantwoorden, maar waar AI-modellen doorgaans moeite mee hebben. Het moet daarom een beeld geven over hoe goed een AI-model kan redeneren. Gemini 3 scoorde daar 31,1 procent en lag daarmee ver achter op concurrerende modellen van Anthropic en OpenAI. Het nieuwe 3.1 Pro-model haalt echter 77,1 procent en is daarmee koploper.

Volgens Google komt Gemini 3.1 Pro vanaf vandaag beschikbaar. Consumenten kunnen het nieuwe model gebruiken via de Gemini-app en NotebookLM. Voor ontwikkelaars wordt het nieuwe AI-model ook toegevoegd aan Gemini CLI, Google AI Studio, Android Studio en de Antigravity-programmeersoftware. Zakelijke gebruikers kunnen met Gemini 3.1 Pro aan de slag via Gemini Enterprise en Vertex AI.

Google Gemini 3.1 Pro-benchmarks
Bron: Google

Door Daan van Monsjou

Nieuwsredacteur

19-02-2026 • 19:19

11

Reacties (11)

Sorteer op:

Weergave:

Tijdje met beide gespeeld, (3 Pro, en 3.1 Pro) 3.1 is iets beter, al denk ik sowieso dat 3 Pro inmiddels de beste allrounder is voor het grote publiek. Maar ik merk een enorm verschil in snelheid, 3.1Pro is echt best traag.

Tip: in mijn ervaring heeft Gemini heel veel baat bij custom instructions.
Google blijft zo alweer een streepje voor op de concurrentie. Ik voorzie vooral OpenAi (Sam Altman) binnenkort weer paniekeren en weer naar code rood gaan, maar ik ben bang dat het een gelopen race is. Google heeft enorme diepe zakken en lijkt verticaal te kunnen integreren, zeker met hun TPU’s. Dat is een voordeel die OpenAi, met al hun externe gelden echt niet kunnen bijbenen. Sam Altman wil denk ik zo veel mogelijk concurrentie (zeker m.b.t. marketshare) voor blijven om een gigantische IPO te kunnen rechtvaardigen.

Enige jammere van Gemini is dat hun interface nog veel te wensen over laat, zeker de mogelijkheid voor mappen/archiveren wordt gemist.
Google heeft net obligaties uitgegeven om de waanzin te financieren.
Die zitten er dus ook ver door met hun reserves, maar willen hun aandeel niet kelderen door er meer uit te geven.

Iemand moet op de rem gaan staan
Wel eerst even toestemming geven dat ze alles van je mogen weten. Ik heb liever een iets minder goede AI tool die niet van alles over mij verzamelt dan een hele goede tool die alles van mij moet weten. Ik laat Gemini links liggen.
Wat een verschil trouwens met die demonstratie laatst voor Poetin, waarbij de robot plat ging na het verliezen van zijn evenwicht bij het afleggen van t stappen ofzo...
Het is wel technisch fascinerend hoe deze kung-fu robots inderdaad niet altijd perfect landen of tot stilstand komen maar dan wel bliksemsnel op reageren en corrigeren.
Uiteraard offtopic, maar toch relevant vwb AI. Ondertussen heeft China al een martial arts leger klaar staan terwijl wij worden verblijt met nog beter nadenkende modellen. Uiterst zorgwekkend als je het mij vraagt.

https://vxtwitter.com/Whi.../2023416426984288506?s=20
Totdat bewezen is dat die robots niet ingestudeerd zijn, ben ik nog niet overtuigd. Martial arts is perfect in te studeren, dus bewijst nog niks.
Dat is echt heel indrukwekkend!
Gemini 3 pro was best ok, fast was veel te veel hallucinaties. Ik kreeg gemini pro 1 jaar gratis bij de pixel 10 pro fold, maar ik moet zeggen dat ik toch regelmatig terug chatgpt gebruik. 3.0 pro was wel redelijk goed, maar antwoorden duurde ook heel erg lang. Ben benieuwd of er iets van verbetering daar in zit nu. Anderzijds gebruik ik chatgpt dan ook heel vaak nu, maar als die er niet uitkomt, kwam gemini 3.0 pro er in 70% van de gevallen wel uit.
Interessant dat Gemini 3.1 Pro vooral inzet op beter redeneren i.p.v. alleen grotere context of meer parameters. Benchmarks zijn leuk, maar uiteindelijk telt of dit ook leidt tot consistenter logische antwoorden en minder hallucinations in echte workflows. Ben benieuwd hoe dit zich in de praktijk verhoudt tot concurrerende modellen, vooral bij multi-step reasoning en code-taken.
Ik programmeer vaak complexe dingen met LLM's en probeer dus geregeld de verschillen tussen Google, Claude en Chatgpt. Maar Google weet het altijd wel erg mooi te verpakken, maar heeft het nooit gehaald bij hoe met name Claude functioneert, en zeker niet sinds Opus 4.5 en 4.6.

Kunnen programmeren is 1, maar logisch programmeren, er geen zooitje van maken, dat soort zaken daar mist het echt enorm bij Google, ook met Pro 3. Ik betwijfel of Pro 3.1 echt zoveel beter zal zijn.

Maar er zijn weinig mensen op internet die twijfelen aan de kracht van Claude en wel aan de kracht van Google. Maar ik snap Google heel goed, want het is aan hun alles er aan gelegen dat ze deze strijd winnen, maar voor nu? Ik betwijfel het .

Om te kunnen reageren moet je ingelogd zijn