Google maakt AI-assistent Gemini native beschikbaar voor Mac-apparaten

Google heeft een native macOS-app uitgebracht voor zijn AI-assistent Gemini. Gebruikers kunnen de bot met een toetscombinatie tevoorschijn toveren en vragen stellen, of afbeeldingen en video's laten genereren.

Gebruikers kunnen de Gemini-assistent met de toetsencombinatie Option-spatiebalk oproepen. Vervolgens kunnen ze de chatbot vragen stellen. Ook is het mogelijk om afbeeldingen en bestanden te uploaden en het scherm te delen met Gemini. De app bevat ook ondersteuning voor het genereren van afbeeldingen, video's en muziek. In tegenstelling tot de mobiele Gemini-apps is er geen ondersteuning voor de Live-functie. Daarmee kunnen gebruikers een spraakgesprek voeren met de AI-assistent.

Dit is de eerste Gemini-app die Google uitbrengt voor desktops. Wel bracht het bedrijf onlangs een Google-app voor Windows uit. De Windows-app laat gebruikers het internet doorzoeken met behulp van Gemini, maar in tegenstelling tot de Gemini-apps is het daarmee niet mogelijk om de assistent vragen te stellen zonder internet, of afbeeldingen, video's en muziek te laten genereren.

Gemini voor macOS
Gemini voor macOS

Door Kevin Krikhaar

Redacteur

15-04-2026 • 20:25

25

Submitter: protected22

Reacties (25)

Sorteer op:

Weergave:

Zou mooi zijn als ze de iOS app ook wat iOS achtiger zouden maken.

ChatGPT ziet er uit alsof het een “native” Apple app is. Gemini alsof Google je zelfs op de iPhone probeert te overtuigen dat Android een beter design heeft.
Voorheen toch wel een voorkeur voor ChatGPT, maar die klaagt alleen maar dat m’n chats te lang zijn en foto’s niet geüpload kunnen worden (max 2 per dag meen ik).

Gemini weet veel actuele zaken, reageert sneller en mekkert een stuk minder. Begint langzaam meer de voorkeur te krijgen.
Ik hetzelfde. Google lijkt wel zijn best te doen om beter uit de bus te komen dan chatGPT. Ook hun snelle model die je unlimited kunt gebruiken is best goed.
Option+spacebar gebruik ik al voor chatgpt :) Tegenwoordig is het echter alleen nog Claude wat ik gebruik.

Wel vrij laat dat Google hier mee komt trouwens.
Ik gebruik ze alle drie (Claude, Gemini en chatgpt). Maar ik betaal enkel voor Claude. Die gebruik ik vooral om HA mee te bedienen en voor Powershell scripts.

Chatgpt vind ik net wat beter dan Gemini als ik wat dieper wil filosoferen of complexe vragen heb.

Voor de wat simpelere dingen pak ik dan Gemini omdat die gratis versie vrijwel onbeperkt is. Alleen dat flash model is dus wat beperkter soms.
Benchmarks zouden het niet met je eens zijn over Gemini v ChatGPT
Niet Gemini pro maar de gratis gebruikt volgens mij flash 3.0.
Er is een verschil tussen benchmarks en de realiteit.

Eerst en vooral moet je al weten dat de benchmarks gemaakt worden met de API methode en door op Xhigh setting te zetten.

In de chat bestaat high and xhigh niet. Dat is de reden dat gemini for web ook altijd heel snel antwoord, hij mag niet te lang nadenken.

Ik denk dat als je ultra subscription gebruiker bent, mischien wel xhigh kunt aanzetten (deep think noemt dat)
Deep think is niet X-High. Plus je krijgt bij Gemini ook redelijk riante toegang tot the AI studio waar the dit kan doen. En in Gemini web/app is het belangrijk dat je Pro kiest en niet Flash, denk verschil is dan niet erg anders.

Betreffende benchmarks, sommige zijn inderdaad vrij waardeloos maar dat is zeker niet voor alle het geval
Jawel hoor, deep think is gewoon een andere thinking mode dat gebruik maakt van 3.1 pro

Het staat letterlijk op hun pagina:

https://deepmind.google/models/gemini/deep-think/

Our most specialized "reasoning mode" is now built on top of "Gemini 3.1 Pro", our most intelligent model yet.


Via de API bereik je hetzelfde door xhigh te selecteren. En dan pas krijg je de goede benchmark resultaten. Het is dus enkel voor ultra users, of API users


Opgelet: verwar deep thinking niet met deep research mode (2 verschillende dingen)

[Reactie gewijzigd door sebastienbo op 16 april 2026 15:45]

Ik weet dat deep research anders is. Maar in de API is helemaal geen X-High. Je hebt low, medium en high. En dat is allemaal Gemini 3.1 Pro.

Je hebt vermoedelijk de tabel doorelkaar gehaald, GPT5.2 heeft X-High. Gemini niet.

Het feit the Deep Think gemaakt is van 3.1 Pro zegt alleen maar dat het als basis fungeerde, niet dat het hetzelfde is maar met een andere thinking level.
Ik heb de documentatie doorgelezen en er staat inderdaad dat je High met selecteren voor deep thinking aan te zetten:
response = model.generate_content(
"Solve a complex physics problem...",
generation_config=genai.GenerationConfig(
thinking_config={
"thinking_level": "high"
}
)

Maar dat veranderd niets aan wat ik in de vorige berichten geschreven heb, je kan dit niet activeren via de web chat gemini, enkel ultra users kunnen het aanzetten, en zoals je gezien hebt draait het gewoon op gemini 3.1 pro , het is gewoon een thinking mode.

Naar die benchmark kijken om te zeggen dat het beter is dan chatgpt maakt geen steek want in gemini kan je dat niet aanzetten de high setting. In chatgpt kan je dat met de goedkope abbonement wel aanzetten 5.4 thinking mode op heavy. En hier moet je de pro niet verwarren, want chatgpt pro is effectief een heel ander model, net zoals codex en o1.

[Reactie gewijzigd door sebastienbo op 16 april 2026 16:32]

https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-deep-think/

Waarom zouden het hier uitleggen dat je als researcher een verzoek kan indienen? Zou raar zijn als dat tegelijkertijd is met met vrije API gebruik.

Het is nog steeds niet Gemini 3.1 Deep Think. Het is Gemini 3.1 Pro, op de hoogste thinking level.
"Reasoning mode" is geen model, het is een reasoning level. Het blijft nog steeds hun top modellen.
De link dat ik eerder gedeeld heb is zeer duidelijk daarin.

Je link refereert naar de eerste keer dat deep think uitgekomen was, toen kon je het enkel gebruiken als je een aanvraag had ingediend(en amerikaanse inwoner was). Het is pas later beschikbaar geworden voor ultra users en API users met de release van 3.1 pro
Ik heb nooit gezegd dat het anders is, het is de reasoning level van Gemini 3.1 Pro maar er is geen reasoning level dat Deep Think is. Het is alsnog een losstaand model, dat geen vrije API access heeft.
Je zegt opnieuw dat het een losstaand model is, maar tegelijkertijd zeg je dat het gemini 3.1 pro is. Dat is conflicterend.

Je hebt een model en je hebt aansturingen van dat model (reasoning modes, temperature,etc.) EN he hebt harnesses.

Harnesses is wat hier een grote rol speelt, dat zijn de tools en instructies die bepalen op welke manier het model gebruikt gaat worden. In eerste instantie is dat de interface die je gebruikt (Codex cli, Web GUI of API), en die interface(Harness) gedraagd zich op een ander manier, bijvoorbeeld de cli en web voegen agentic behavior toe. Ik vermoed dat deep think een combinatie is van "een thinking mode" zoals ze op hun whitepaper schrijven, maar ook specifieke "system instructions" die het op een bepaalde manier laat denken. Voor die reden kan het zijn dat High in de API toch niet helemaal hetzelfde voelt als "deep think" dat ultra subscription users gebruiken. Toch komt het er zeer dicht bij want de High zorgt er voor dat het model veel langer kan nadenken dan wat de gemiddelde gebruiker van gemini heeft. Hierdoor zijn die benhmarks die je ziet op bijvoorbeeld artificialanalysis website niet representatief omdat zo goed als niemand toegang heeft.

In feite zou je de intelligentie van elke model moeten vergelijken als ze exact even veel effort steken in een query (bijvoorbeeld ze moeten antwoorden binnen de 30 seconden op een moeilijke query). Want het is oneerlijk om te zeggen dat model A slimmer is dan model B, als model A 28 minuten mogen werken heeft en model B maar 30 seconden voor diezelfde benchmark.

Voor die reden kijk ik liever naar de benchmarks van de nonthinking modes van die modellen op artificialanalysis. (Dat zijn de modellen waar geen lampje bijstaat) je zal zien dat er soms een enorm groot verschil is van het exact zelfde model in thinking mode(enhanced intelligence) en non-thinking mode(basic intelligence). Daarnaast heb je ook "assisted intelligence", dat is de "enhanced intelligence" die gebruik maakt van tools om zijn antwoorden beter te maken door bijvoorbeeld gebruik te maken van rekenmachines, internet,scripts,etc. Dat assisted intelligence verdraaid helemaal de preceptie van intelligentie want eigenlijk weet je niet of die tools morgen nog opdezelfde manier zullen werken. Het is een soort van cheating als je dat gebruikt tijdens het benchmarken. Je ziet dat bij Humanity's last exam benchmark, waar ze er wel min of meer transparant over zijn over de tool usage (maar dat is niet altijd het geval bij die anderen benchmarks, waar ze mogelijks ook tools achterliggend gebruiken die laten uitschijnen dat het model slimmer is dan in werkelijkheid) , en dat is dus de reden dat ik niet naar thinking modes kijk in de benchmarks van artificialanalysis (die enkel via API's test)
Je zegt opnieuw dat het een losstaand model is, maar tegelijkertijd zeg je dat het gemini 3.1 pro is. Dat is conflicterend.
Zeg ik niet, ik zeg dat het gebouwd is op 3.1 Pro. Maar het zijn losse modellen. Heb nergens gezegd dat het tegelijkertijd 3.1 Pro is. Dit is hoe het werkt in AI, je hebt je foundational model, en daar bouw je de rest op, en de rest kan compleet anders zijn.
Ik vermoed dat deep think een combinatie is van "een thinking mode" zoals ze op hun whitepaper schrijven, maar ook specifieke "system instructions" die het op een bepaalde manier laat denken.
Nu vermoed je het, eerst was je zeker. Maar anywho, dit zijn speculaties die ongegrond zijn. Het is niet zo simpel als dat, een Deep Think model gaat echt wat verder dan dat. Zoals ik zei, 3.1 is de "foundation" wat daarna komt is niet zo simpel.
In feite zou je de intelligentie van elke model moeten vergelijken als ze exact even veel effort steken in een query (bijvoorbeeld ze moeten antwoorden binnen de 30 seconden op een moeilijke query). Want het is oneerlijk om te zeggen dat model A slimmer is dan model B, als model A 28 minuten mogen werken heeft en model B maar 30 seconden voor diezelfde benchmark.
Maar dit is hoe alles in computer of data analysis werkt. Meer tijd = betere resultaten, van AI tot simulaties tot rendering. Als ze daar rekening mee houden in de benchmarks is dat totaal nutteloos. Leuk als ik zie dat het model X scoort met weinig tijd, en Y met meer tijd, maar de meeste consumer modellen zijn toch al zo goed als ingesteld dat je daar weinig aan hebt. Zoals, Flash Thinking of Flash (niet thinking).
Daarnaast heb je ook "assisted intelligence", dat is de "enhanced intelligence" die gebruik maakt van tools om zijn antwoorden beter te maken door bijvoorbeeld gebruik te maken van rekenmachines, internet,scripts,etc. Dat assisted intelligence verdraaid helemaal de preceptie van intelligentie want eigenlijk weet je niet of die tools morgen nog opdezelfde manier zullen werken. Het is een soort van cheating als je dat gebruikt tijdens het benchmarken
De term "assisted intelligence" bestaat niet in AI-architectuur. Wat jij beschrijft is simpelweg tool use (function calling) en grounding (zoals internettoegang). En reasoning modellen gebruiken geen rekenmachine meer voor wiskunde. reinforced learning en test-time compute zorgen dat dit compleet in het model is.

En hoe is function calling/grounding cheaten? Ze splitsen het toch op, het model alleen, en het model met hulp. En als eindgebruiker wil je het beste resultaat dus als de AI correct extra hulp gebruikt is dat het doel, niet cheaten.
Ik denk dat er iets mis is met hoe jij zinnen leest, misschien moet je het nog eens opnieuw lezen:

Dus op deze website:
https://deepmind.google/models/gemini/deep-think/
Staat letterlijk:
Our most specialized "reasoning mode" is now built on top of "Gemini 3.1 Pro", our most intelligent model yet.

De "our most intelligent model yet" slaagt op "Gemini 3.1 Pro", niet "Deep think"...

Aangezien je het misschien liever van gemini zelf leest:
"It is the exact same base model, just wearing a different "harness.""
https://gemini.google.com/share/982dfc3ea420

Ik hoop dat je weet wat een harness is. Dat heb ik al hogerop proberen uit te leggen.
Deep think is dus GEEN apparte model. Het is Letterlijk hetzelfde, maar word agentic aangestuurd en met langer denk vermogen.

Je zegt dat mijn vorige bericht speculaties zijn terwijl ik de enige van ons twee ben die het onderbouw met bronnen. Dat maakt van jouw stellingen de echte speculaties.

Wat betreft het woord "Assisted intelligence" dat is gewoon ENGELS, dat betekend dat iets of iemand gebruik maakt van tools om iets slim slimmer te maken, zonder die tools zou de intelligentie niet hetzelfde zijn. De term word ook gebruik voor mensen die AI als een tool gebruiken om hun intelligentie output te verhogen, versus de intelligentie die ze zouden hebben zonder de tool. Er zijn honderden artikelen over die term, maar het is geen terminologie het is GEWOON ENGELS

Ik heb het gevoel dat je niet echt wil weten wat de waarheid is, en gewoon in je eigen waarheid wereld wil blijven. Als je denkt dat je toch iets kan bijdragen in dit gesprek, gelieve het dan te onderbouwen met oftewel bronnen oftewel inductieve logica. Anders is het gewoon allemaal je mening.
Als je 1 seconde het antwoord van je eigen Gemini leest zie je door dat dankzij het verkeerd beschrijven van je vraag, Gemini je een ander antwoord geeft, die je fout interpreert.

Je vraagt om deep thinking mode, terwijl het deep think is. Ten eerste stuur je al naar een antwoord in je vraag, ten tweede denkt jouw Gemini dat je Thinking bedoelt uit de app interface lijst van Fast, Thinking en Pro. Dus klopt niet. En je hebt me nog steeds niet laten zien waarom Google dan zou zeggen dat researchers een aanvraag kunnen doen voor API access terwijl jij loopt te beweren dat het gewoon beschikbaar is als we 3.1 Pro op high zetten.


Plus: Je bevestigt mijn punt. Je geeft nu zelf aan dat Deep Think een andere "harness" gebruikt en "agentic" wordt aangestuurd. Dat is exact wat ik zeg. Een foundation model (3.1 Pro) verpakt in een complexe agentic loop is een compleet ander operationeel systeem. Jouw originele claim was dat je Deep Think kon activeren door in de API simpelweg de parameter thinking_level="high" in te stellen. Een parameter verhogen creëert geen agentic harness. Je krijgt dan 3.1 Pro die langer nadenkt, geen Deep Think.

[Reactie gewijzigd door DamirB op 17 april 2026 20:41]

Oh my god jij bent echt een amateur. Heb jij wel studies gedaan?

je bent opnieuw beweringen aan het maken die niet ondersteunt zijn en valt iemand aan die wel met bronnen komt.

Bovendien probeer je nu de feiten te verdraaien alsof je altijd beweert hebt om over harness the spreken, ik vermoed dat je dat woord niet eens kende voor dat ik het opgenoemt heb.

Allesinds hierboven heb je meermaals gezegd dat het een APART model was, niet htezelfde als de 3.1 pro. Dus ben je niet enkel een amateur maar ook nog een leugenaar bovenop.

En opnieuw ben je met GEEN ENKELE bronnen afgekomen en maak je beschuldigingen dat het wel aan een ander zal liggen, omdat je altijd denkt dat JIJ gelijkt hebt.

Ik ga me niet verder laten opslorpen in iemand die duidelijk niet over seff-kritische capaciteit beschikt, ik ben mogelijk met een jonge puber aan het praten die denkt dat hij alles van AI weet.

Hier is allesinds een correctie die ik ingediend heb bij gemini voor zeker te zijn dat het wel deep think functionaliteit is en dus niet "deep thinking", hij herbevestigd nog steeds hetzelfde en bevestigd ook wat hij eerder had gezegd dat het via API op HIgh zetten het ook lukt.:

https://gemini.google.com/share/ed67ad8c61fc

Er is echt wel iets aan de hand met je, want je leest alles letterlijk en interpreteerd daardoor vaak geschreven berichten verkeerd (ik heb het bij elk van je berichten gezien dat je je focuste op iets verkeerd in een zin). Er zijn technieken die je kunnen helpen om terug beter begrijpend te laten lezen, vaak begint het al met trager te lezen en eventueel nog een 2de of 3de keer te herlezen. Een andere moderne techniek is de berichten te pasten in een LLm en te vragen hoe hij het interpreteerd.

Allesinds als je nog iets stuurt, gelieve deze keer te doublechecken en BRONNEN te gebruiken om je feiten te ondersteunen, je hebt dat echt nodig. In vele gevallen zal je dat helpen begrip te hebben over de nuances. Zoek eens de term "AuDHD" en kijk of je daar niet onder valt (Impulsief antwoorden en dingen letterlijk begrijpen zijn de hoofdsymptomen). PS: AuDHD is geen disability, die mensen zijn vaak heeel goed in patroonherkenning maar gaan vaak te diep in details.

[Reactie gewijzigd door sebastienbo op 17 april 2026 22:09]

Ik ga niet in op de persoonlijke aanvallen. Dat is nergens voor nodig en voegt niets toe aan de technische discussie.

​Aangezien we fundamenteel van mening verschillen over wat een geldige bron is, zal ik het heel kort houden:
  1. Een LLM-output is geen bron. Een consumenten-chatbot die jouw eigen aannames napraat, is geen technische documentatie. De enige high-confidence bronnen voor deze discussie zijn de officiële Google Cloud API-documentatie en de DeepMind whitepapers.
  2. De architectuur: Je blijft het ruwe model (de 3.1 Pro foundation) verwarren met het uiteindelijke operationele systeem. Ja, ze delen hetzelfde fundament. Nee, ze zijn niet hetzelfde product.
  3. De API parameter: Het instellen van thinking_level="high" in de API geeft het standaard 3.1 Pro model simpelweg een groter compute budget. Het routeert je request niet magisch naar de afgeschermde, gespecialiseerde Deep Think architectuur. Dat zijn objectieve feiten over hoe cloud computing werkt.
​Aangezien we hier niet uit gaan komen en we een compleet ander referentiekader hebben van wat technische onderbouwing is, laat ik de discussie hierbij. Succes verder.


Plus, Lees de laatste zin van je eigen Gemini chat:

(Let op: De uiterst geavanceerde "Gemini 3 Deep Think" speciaal voor zwaar wetenschappelijk onderzoek zit momenteel in een early-access programma voor enterprise-gebruikers en onderzoekers, maar de onderliggende thinking-architectuur is vrij beschikbaar in de algemene modellen)
En weer heb je niet door dat die zin gaat over de harness ... zucht
En weer heb je alles gebaseerd op wat JIJ denkt ... zucht

Niets concreet behalve lucht

[Reactie gewijzigd door sebastienbo op 18 april 2026 00:49]

Had al een webapp via Firefox geïnstalleerd. Maar dit is beter. Straks even downloaden.
Ik heb de app net geïnstalleerd. Het inloggen lukt niet. Na auth opent hij Safari en die wil iets met "localhost" doen en dus werkt het niet.


Safari can’t open the page “[url="http://localhost:50261/?state=eWkMyJjVvEohmCfO3oKv&iss=https://accounts.google.com&code=4/0Aci98E8QBdIZUKISV_p4XDdbeEHTzLYWlrpr"]http://localhost:50261/?state=eWkMyJjVvEohmCfO3oKv&iss=https://accounts.google.com&code=4/0Aci98E8QBdIZUKISV_p4XDdbeEHTzLYWlrpr[/url] etc.etc.etc.
ik had ook chatgtp hiervoor draaien. En voor de rest lekker spotlighted gebruiken.

Om te kunnen reageren moet je ingelogd zijn