Black Friday = Pricewatch Bekijk onze selectie van de beste Black Friday-deals en voorkom een miskoop.

Google komt met eigen IDE voor gebruik met AI-modellen

Google heeft Antigravity gepresenteerd, een IDE voor software-ontwikkeling die kan werken met diverse AI-modellen. De publieke preview voor consumenten is vooralsnog gratis, Google zegt niets over hoeveel het kan gaan kosten.

De IDE moet zich onderscheiden met een Manager-surface waar gebruikers het overzicht moeten kunnen houden op wat agents binnen de IDE allemaal doen. Die loggen hun werk met Artifacts, zoals taaklijsten, screenshots en opnames van browsersessies om hun werk vast te leggen. Dat moet gebruikers context geven over wat de agents hebben gedaan binnen het project. Dat werkt volgens Google asynchroon. Ook hoeven gebruikers dus niet te wachten tot een agent klaar is om feedback te geven of door te gaan naar een volgende taak.

Er is ook een traditionelere Editor-view voor synchroon werken met agents binnen Antigravity. Die twee vensters zijn wel los van elkaar. Antigravity is, in tegenstelling tot veel andere toepassingen van Google, niet primair een clouddienst. Het werkt lokaal. Volgens Google is de software in staat om te leren van het eigen werk, waardoor die beter moet worden met de tijd. Hij kan bovendien gebruik maken van een eigen 'knowledge base' met informatie over projecten.

Antigravity zit niet vast aan Googles eigen AI-modellen. Het kan overweg met dinsdag gepresenteerde Gemini 3, Gemini 2.5, Claude Sonnet 4.5 van Anthropic en GPT-OSS-modellen van OpenAI. Het is vooral privégebruik vooralsog kosteloos, Google zegt niets over kosten voor professioneel gebruik. De IDE verschijnt dinsdag als preview voor Windows, macOS en Linux.

Antigravity is niet de enige IDE die zich richt op het gebruik van AI voor code schrijven. Onder meer concurrenten als Cursor en Kiro doen dat langer. Net als die IDE's, is Antigravity gebaseerd op Microsoft Visual Studio Code.

Update, 19.30 uur – In het artikel stond aanvankelijk dat Antigravity niet op VSCode gebaseerd was, dit blijkt wel zo te zijn.

Door Arnoud Wokke

Redacteur Tweakers

18-11-2025 • 17:01

21

Reacties (20)

Sorteer op:

Weergave:

Link naar de tool. Het is geen OSS.
Lijkt me weldegelijk VS Code gebaseerd, asl ik de screenshots op de product page bekijk (en dan met name de Editor view). https://antigravity.google/product
Ja, dat is het ook. Je kunt de settings importeren uit alle gangbare vscode varianten - vscode, cursor, windsurf, etc.
ik ben misschien pas begin 30 maar altijd als ik IDE zie staan denk ik toch aan mijn windows 98 machine :)
Waar staat deze IDE voor? ik ben (nog) niet echt bezig met AI
Kan je toch gewoon opzoeken..?
jazeker kan dat. maar ik mis een beetje het contact tussen mensen. waarom alles altijd maar opzoeken? ik kan het hier vragen en antwoord krijgen, en ook ervaringen van anderen lezen. kan ook alles aan chatgpt vragen, maar vind het veel leuker om zelf dingen uit te zoeken.
Integrated development environment — het is simpel gezegd een softwareprogramma die je als softwareontwikkelaar gebruikt om in te ontwikkelen.
Ooit Notepad++, VScode, Visual Studio, Netbeans, etc.. gebruikt? dat zijn IDE's
Notepad++ is geen ide. Je kan er niet in debuggen etc.
VSCode is ook geen IDE. Het is een teksteditor met plugin support.
Integrated development environment

Eerst lezen en dan pas reageren :X

[Reactie gewijzigd door eBoR op 18 november 2025 17:07]

Integrated Development Environment, kort gezegd een text editor zoals notepad, on steroids.
Ik kreeg toevallig vandaag een bericht van OpenAI dat ik met mijn abonnement ook toegang tot Codex heb. Zou dit een reactie zijn op het nieuws van Google?
Is dit niet net zoiets als LMstudio?
Helaas lijkt 't niet te werken voor mij (MacOS)

Zit vast op "Setting Up Your Account".

Iemand anders meer succes?
hier zat ik ook vast. ik ben op windows en gebruik chrome, bij deze stap verscheen er in de browser een popup met iets over chrome automatisch toestaan antigravity te openen of zoiets, toen ik dat aanvinkte en het opnieuw probeerde lukte het wel.
Thanks! na een paar extra pogingen er toch doorheen gekomen. Tot nu toe vrij vergelijkbaar met Claude Code qua editing en snelheid, al heb ik nog geen idee hoe genereus de gratis tier is, en hoe duur het wordt om daar overheen te gaan :)

Ik ga er wel een keertje uitgebreider naar kijken!
Bij werkte inloggen wel (opende een browser tab naar google login, daarna via een app link redirect terug naar de app).

Ik heb hiermee net in ~2 uurtjes tijd een python + react app in elkaar gezet die of een microfoon aan je pc kan uitlezen, of luistert via een poort naar UDP audiostreams die over het netwerk worden verzonden en vervolgens audio classificatie doet met via de ui instelbare labels. De app maakt vervolgens 'events' als een label gedetecteerd word en groepeert deze als ze binnen een sliding window vallen. In de UI kan je precies zien wat er gedetecteerd is, wanneer en hoelang, en daar dan ook een report over uitdraaien. Classificeren gebruikt een local yamnet model via tensorflow, deze ondersteund 521 labels/tag die met autocomplete zijn te selecteren. Inmiddels werkt het ook vrijwel helemaal.

Reden dat dit mij een leuke testcase leek, kk zit al maanden met buren die een hond met verlatingsangst elke dag 8 uur alleen laten en dat beest blaft en jankt die 8 uur lang gewoon ononderbroken, inmiddels hallucineer het geblaf van dat beest zelfs als hij stil is :/ . De buren leken eerst mee te willen werken maar na een paar weken reageren ze nergens meer op, dus ik moet verslaglegging maken van wanneer en hoelang dat beest blaft om overlast aan te kunnen tonen, en ik heb geen zin om dat met de hand te gaan doen, en ik heb toevallig nog 2 atomstack echo's liggen die prima als mobiele netwerk microfoon kunnen dienen. Zag dit artikel vanmiddag voorbij komen en dacht das wel een leuke test case.

En ik moet zeggen, ik ben echt positief verrast, dit voegt toe wat ik mis bij copilot et. al. context window management, documentatie, eerst een plan maken o.b.v. user input, dit plan 'bespreken' en verfijnen, daarna na accepteren van het plan een takenlijst maken, dit weer bespreken en e.v.t. aanpassen. Dan de agent zn ding laten doen (en die kan nu dus ook automatisch screenshots nemen van je web app / ui en deze analyseren op errors op de pagina, layout issues, etc), schrijft documentatie op verschillende levels en nadat hij klaar is kan je 'samen' de taken doorlopen, e.v.t. bugs aanwijzen en als alles werkt logische commits maken om het werk op te slaan. Dit gaat enorm veel soepeler, ik vond copilot, continue e.d. eigenlijk een kriem om mee te werken voor alles groter dan een functie scope, en dan deed ik het liever zelf. Maar met tooling als dit zie ik mijzelf dit echt wel meer gaan gebruiken in de toekomst.

Screenshots:

Dashboard History pagina Settings pagina


Om te kunnen reageren moet je ingelogd zijn