Google komt met eigen IDE voor gebruik met AI-modellen

Google heeft Antigravity gepresenteerd, een IDE voor software-ontwikkeling die kan werken met diverse AI-modellen. De publieke preview voor consumenten is vooralsnog gratis, Google zegt niets over hoeveel het kan gaan kosten.

De IDE moet zich onderscheiden met een Manager-surface waar gebruikers het overzicht moeten kunnen houden op wat agents binnen de IDE allemaal doen. Die loggen hun werk met Artifacts, zoals taaklijsten, screenshots en opnames van browsersessies om hun werk vast te leggen. Dat moet gebruikers context geven over wat de agents hebben gedaan binnen het project. Dat werkt volgens Google asynchroon. Ook hoeven gebruikers dus niet te wachten tot een agent klaar is om feedback te geven of door te gaan naar een volgende taak.

Er is ook een traditionelere Editor-view voor synchroon werken met agents binnen Antigravity. Die twee vensters zijn wel los van elkaar. Antigravity is, in tegenstelling tot veel andere toepassingen van Google, niet primair een clouddienst. Het werkt lokaal. Volgens Google is de software in staat om te leren van het eigen werk, waardoor die beter moet worden met de tijd. Hij kan bovendien gebruik maken van een eigen 'knowledge base' met informatie over projecten.

Antigravity zit niet vast aan Googles eigen AI-modellen. Het kan overweg met dinsdag gepresenteerde Gemini 3, Gemini 2.5, Claude Sonnet 4.5 van Anthropic en GPT-OSS-modellen van OpenAI. Het is vooral privégebruik vooralsog kosteloos, Google zegt niets over kosten voor professioneel gebruik. De IDE verschijnt dinsdag als preview voor Windows, macOS en Linux.

Antigravity is niet de enige IDE die zich richt op het gebruik van AI voor code schrijven. Onder meer concurrenten als Cursor en Kiro doen dat langer. Net als die IDE's, is Antigravity gebaseerd op Microsoft Visual Studio Code.

Update, 19.30 uur – In het artikel stond aanvankelijk dat Antigravity niet op VSCode gebaseerd was, dit blijkt wel zo te zijn.

Door Arnoud Wokke

Redacteur Tweakers

18-11-2025 • 17:01

45

Reacties (44)

Sorteer op:

Weergave:

Helaas lijkt 't niet te werken voor mij (MacOS)

Zit vast op "Setting Up Your Account".

Iemand anders meer succes?
Bij werkte inloggen wel (opende een browser tab naar google login, daarna via een app link redirect terug naar de app).

Ik heb hiermee net in ~2 uurtjes tijd een python + react app in elkaar gezet die of een microfoon aan je pc kan uitlezen, of luistert via een poort naar UDP audiostreams die over het netwerk worden verzonden en vervolgens audio classificatie doet met via de ui instelbare labels. De app maakt vervolgens 'events' als een label gedetecteerd word en groepeert deze als ze binnen een sliding window vallen. In de UI kan je precies zien wat er gedetecteerd is, wanneer en hoelang, en daar dan ook een report over uitdraaien. Classificeren gebruikt een local yamnet model via tensorflow, deze ondersteund 521 labels/tag die met autocomplete zijn te selecteren. Inmiddels werkt het ook vrijwel helemaal.

Reden dat dit mij een leuke testcase leek, kk zit al maanden met buren die een hond met verlatingsangst elke dag 8 uur alleen laten en dat beest blaft en jankt die 8 uur lang gewoon ononderbroken, inmiddels hallucineer het geblaf van dat beest zelfs als hij stil is :/ . De buren leken eerst mee te willen werken maar na een paar weken reageren ze nergens meer op, dus ik moet verslaglegging maken van wanneer en hoelang dat beest blaft om overlast aan te kunnen tonen, en ik heb geen zin om dat met de hand te gaan doen, en ik heb toevallig nog 2 atomstack echo's liggen die prima als mobiele netwerk microfoon kunnen dienen. Zag dit artikel vanmiddag voorbij komen en dacht das wel een leuke test case.

En ik moet zeggen, ik ben echt positief verrast, dit voegt toe wat ik mis bij copilot et. al. context window management, documentatie, eerst een plan maken o.b.v. user input, dit plan 'bespreken' en verfijnen, daarna na accepteren van het plan een takenlijst maken, dit weer bespreken en e.v.t. aanpassen. Dan de agent zn ding laten doen (en die kan nu dus ook automatisch screenshots nemen van je web app / ui en deze analyseren op errors op de pagina, layout issues, etc), schrijft documentatie op verschillende levels en nadat hij klaar is kan je 'samen' de taken doorlopen, e.v.t. bugs aanwijzen en als alles werkt logische commits maken om het werk op te slaan. Dit gaat enorm veel soepeler, ik vond copilot, continue e.d. eigenlijk een kriem om mee te werken voor alles groter dan een functie scope, en dan deed ik het liever zelf. Maar met tooling als dit zie ik mijzelf dit echt wel meer gaan gebruiken in de toekomst.

Screenshots:

Dashboard History pagina Settings pagina
Niets wat augment code (https://www.augmentcode.com) zijn product niet al een tijdje deed voor mij. Veel beter dan copilot. Maar goed dat is mijn voorkeur en het werkt gewoon in de normale vscode. Geen nieuwe ide nodig. .

copilot is zo ongeveer de slechtste optie voor code die ik ben tegengekomen. Dat ding heeft 0 context.

En nee, geen aandelen :)

[Reactie gewijzigd door bzuidgeest op 19 november 2025 00:06]

augment code kende ik nog niet, zo over hun website scannende lijkt het inderdaad behoorlijk op wat google met antigravity doet (overigens is antigravity ook 'gewoon' een fork van vscode. Alle vscode extensies e.d. werken er ook gewoon in en de interface is hetzelfde).

Eens m.b.t. tot copilot, heb daar als test 2 apps in proberen te maken maar dat was niet te doen zonder drie kwart alsnog zelf te doen. Ik zag gisteren dat er nu wel een hele basale 'takenlijst' functie inzit maar dat valt in het niets bij wat antigravity (en zo te zien dus augmented code) nu doen.
Ik ben er ook bij toeval bij terecht gekomen. Cursor is bekender, maar die heb ik weer niet geprobeerd. Ik merk vooral nut te hebben van wat ze bij augment code de context db noemen. Je project word geïndexeerd en verkent en dan krijg je een verslag van wat gezien is. Als je een project van github erin hebt dan word dat vaak gewoon herkend.

Een van de mooiere dingen vind ik (tegenover copilot). Dat ik een vraag stel. Hij maakt een plan gaat aan de slag en vraagt dan of hij build mag doen (ik heb toestemming geven aan laten staan, maar kan uit). En dan kijkt hij of er build errors zijn en zo ja gaat hij verder met werken. Dat doet copilot van github gewoon niet. copilot (de baas heeft ons een betaalde licentie gegeven) kan niet eens de functie parameters goed invullen in de autocomplete. Die halucineert hij er gewoon bij. De vraag loopt bij augment door met verslaggeving tot de build zonder errors is. Dat kan wel eens een paar rondes nemen, maar hij komt er wel. Hij scant segement van de code en als hij iets niet kan vinden dat er wel zou moeten zijn dan vraagt hij rustig of hij even grep mag doen. Ook weer iets dat copilot niet doet.

En vragen over een stuk code en hoe dat relateert aan andere code is ook heel goed beantwoord. Ik was zelfs code aan het porten en er zat code in een lib waar ik alleen een binary voor had. Augement suggereerde dat ik het opende in ghidra. Daarna de raw decompliatie handmatig aan de AI gevoerd door die in de project folder te plaatsen voor indexing. Die deed suggesties voor welke structs ik moest maken en wat variabelen waarschijnlijk waren op basis van welke hardware register werden aangesproken.Inclusief waar ik moest klikken in ghidra, want ik had dat nog nooit gedaan. Een uur later was de functie die ik nodig had door dat ding in iets leesbaars omgezet waar ik een special uitzondering die niet gedocumenteerd was kon uithalen. Iedere keer dat ik voor de AI iets uitvoerde controleerde augment het docompilatie resultaat en gaf verdere instructies. Dat zal vast niet altijd geweldig werken, maar als het een handvol keren goed gaat is het geweldig. En hij werd enorm geholpen omdat die context engine van augment de decompilatie aan de verwachtingen van de code kon koppelen die ik wel had.


Ik verwacht dat als die AI's ooit strak geïntegreerd worden met ghidra (er zijn al plugins denk ik) dan worden decompilatie projecten een stuk makkelijker te doen.

Het enige minpunt is dat augment alleen voor vscode en rider beschikbaar is. Maar ik hou gewoon het project in vscode open naast visual studio. Dat werkt uitstekend.

[Reactie gewijzigd door bzuidgeest op 19 november 2025 13:46]

Succes man verschrikkelijk zulke buren. Hun problemen afschuiven op de rest. Project is erg leuk de local model draai je die op je eigen hardware of schiet je het ergens heen. Lijkt me namelijk wel een zware taak.
Dankjewel!

Ik merk aan mezelf dat het constante lawaai inmiddels mentaal wel een impact begint te hebben. Prikkelig, slecht humeur, niet meer kunnen concentreren op waar ik mee bezig omdat ik mij alleen nog maar op dat geblaf kan focussen en zoals gezegd dat ik het geblaf letterlijk begin te hallucineren...

Ik kijk er net zo naar, de buren weten wat die hond doet en ze weten dat er twee gezinnen veel last van hebben. Ik vind het ook zielig voor de hond want die blaft alleen omdat hij gestressed is (en ze de buren haar een schokband hebben omgedaan, dat was het enige dat ze wel wouden doen...) Maar ze kiezen er bewust voor om verder geen actie te ondernemen, ik vind het ook echt asociaal, maar goed.

Het model draait inderdaad compleet lokaal. Ik heb de backend python app en de frontend in een docker container gezet en die draait nu op mijn thuisservertje (Intel I3-12100). CPU verbruik valt heel erg mee. Als ik een audiostream naar de backend stuur dan springt de CPU usage van het python process naar ~1,5% met af en toe een korte piek naar 4%. Memory usage idle zonder streams hangt rond de 200MB, zodra je een stream stuurt dan stijgt dit naar ~350MB (vanwege het bufferen van de gestuurde audio zodat bij een detectie deze een clip kan opslaan van start tot eind). Netwerk bandbreedte ligt per stream rond de 150Kbps (16kHz mono audio).

In theorie kan je het yamnet model ook omzetten naar TF Lite, en dan zou het zelfs moeten kunnen draaien op de ESP32 in de atomstack echos en de detectie direct op de mic te doen, en alleen fragmenten naar de backend sturen, maar dat leek mij ingewikkelder debuggen dus heb dat nog niet gedaan.
Mooi projectje, wel jammer dat je het nodig hebt… wellicht een idee het op GitHub te zetten, het zal ongetwijfeld ook voor anderen van nut kunnen zijn zo’n tool!
Thanks! Ja helemaal mee eens, ik kan er in mijn hoofd ook niet bij dat je wissen en wetens je buren uren en uren elke dag weer in de shit laat zitten. Ik had al een (helemaal) zelf geschreven python scriptje die via yamnet kon classificeren maar dat was het toch net niet. Dit tooltje werkt veel fijner.

Ik denk dat ik het tooltje ergens binnenkort nog wel op Github zet met een MIT of GPL licentie. Ik heb express de interface neutraal gehouden en niet vast gezet op honden of blaffen, met het idee dat het model 521 geluiden kan herkennen dus je zou de tool ook kunnen gebruiken voor het loggen en visualiseren van andere vormen van geluidsoverlast zoals harde muziek, schreeuwen, constructielawaai, etc.

Ik zit er ook nog mee te spelen om een webhook functie toevoegen, die bij elke event een notificatie kan sturen naar bijv. homeassistant of ntfy (mijn specifieke idee is dan om met die notificatie de audioclip mee te sturen, en volautomatisch dit dan door te zetten via whatsapp naar de buren met de audioclip erbij :p ).
hier zat ik ook vast. ik ben op windows en gebruik chrome, bij deze stap verscheen er in de browser een popup met iets over chrome automatisch toestaan antigravity te openen of zoiets, toen ik dat aanvinkte en het opnieuw probeerde lukte het wel.
Thanks! na een paar extra pogingen er toch doorheen gekomen. Tot nu toe vrij vergelijkbaar met Claude Code qua editing en snelheid, al heb ik nog geen idee hoe genereus de gratis tier is, en hoe duur het wordt om daar overheen te gaan :)

Ik ga er wel een keertje uitgebreider naar kijken!
Ik probeer een webapp te maken en na 2 vragen in de planning mode lukt helemaal niets meer met foutmelding: "Agent execution terminated due to model provider overload"
Ik denk dat dit kwam vanwege launch drukte en je voor dat model tegen de global limits aanliep i.p.v. de user limit. Er is nu een update die in de error aangeeft welke het is:
Messaging to distinguish particular users hitting their user quota limit from all users hitting the global capacity limits.
Ik liep er gisteren ook een paar keer tegenaan, maar je kan dan linksonder switchen naar een ander model (bijv. van gpt-oss naar claude 4.5) en dan 'continue' intypen. Dan gaat hij verder waar hij gebleven was.
helaas lijkt niet te werken op google chromeos [..]
ik ben misschien pas begin 30 maar altijd als ik IDE zie staan denk ik toch aan mijn windows 98 machine :)
Waar staat deze IDE voor? ik ben (nog) niet echt bezig met AI
Integrated development environment — het is simpel gezegd een softwareprogramma die je als softwareontwikkelaar gebruikt om in te ontwikkelen.
Ik kan zien dat dit niet Ai gegenereerd is, maar toch zit er een gedachte streepje. Hoe kan dat dan??
Divisie ingedrukt houden, dan heb je keuze tussen een 'normale' divisie (‐), half kastlijntje (–), of heel kastlijntje (—). Dit werkt i.i.g. voor Apple en Samsung, Windows moet je volgens mij een alt-code gebruiken. Op Macs is er ook een toetsencombinatie (die ik nu niet uit het hoofd ken).

Het is altijd al in veel gevallen (typografisch) netter geweest een (half) kastlijntje te gebruiken, sterker nog, waar denk je dat AI-modellen dat vandaan hebben? Juist, uit hun trainingsdata, dus boeken en internetteksten.

Ik ben zelf ook niet van plan ermee te stoppen, terwijl ik nog nooit iets met genAI heb gegenereerd. We gaan ons taalgebruik toch niet aanpassen omdat sommigen – ongehinderd door enige typografische kennis – dan denken dat het op een AI-tekst lijkt?
Op Mac en iOS kun je gewoon twee dashes achter elkaar typen en wordt het automatisch een em-dash. Kijk—maar—eens.
Kan je toch gewoon opzoeken..?
jazeker kan dat. maar ik mis een beetje het contact tussen mensen. waarom alles altijd maar opzoeken? ik kan het hier vragen en antwoord krijgen, en ook ervaringen van anderen lezen. kan ook alles aan chatgpt vragen, maar vind het veel leuker om zelf dingen uit te zoeken.
Ik denk bij IDE ook in eerste instantie aan Integrated Drive Electronics, tegenwoordig vooral PATA genoemd, maar helaas worden sommige afkortingen opnieuw geïntroduceerd en moest ik ook ff googlen dat het tegenwoordig dus voor Integrated Development Environment wordt gebruikt, iets met software, en aangezien ik een hardware freak ben.... zal ik die link nog wel een tijd verkeerd blijven leggen :P
Haha eindelijk! Ik ben niet de enige. Ik ben bang dat ik hetzelfde "probleem" zal hebben. Gezien ik toch wel geregeld met een pentium 3 systeem bezig ben zal het voorlopig nog niet stoppen gezien de IDE (geen sata) aansluitingen :)
Ik denk bij IDE ook in eerste instantie aan Integrated Drive Electronics, tegenwoordig vooral PATA genoemd, maar helaas worden sommige afkortingen opnieuw geïntroduceerd en moest ik ook ff googlen dat het tegenwoordig dus voor Integrated Development Environment wordt gebruikt, iets met software, en aangezien ik een hardware freak ben.... zal ik die link nog wel een tijd verkeerd blijven leggen :P
'Tegenwoordig' is toch echt al sinds begin 1990 met Visual Basic en redelijk standaard sinds Visual Studio, Borland C / JBuilder etc). Eigenlijk hoor ik juist tegenwoordig nooit meer IDE in de context van HDD's, maar ook toen eigenlijk nooit verward geweest aangezien het altijd wel duidelijk was waar het over ging ;)
Ooit Notepad++, VScode, Visual Studio, Netbeans, etc.. gebruikt? dat zijn IDE's
Notepad++ is geen ide. Je kan er niet in debuggen etc.
VSCode is ook geen IDE. Het is een teksteditor met plugin support.
Integrated Development Environment, kort gezegd een text editor zoals notepad, on steroids.
Dat is wel erg karig voor een IDE. Kijk maar eens naar Visual Studio (dus niet Visual Code). Zit veel meer bij. Al is Visual Code met plug-ins ook aardig naar een IDE te brengen.

Grosso modo: Visual Studio heeft een compiler, linker, projecten (en dependencies), debugger, en van alles en nog wat erbij. Meestal erg groot (diskruimte) erg zwaar. Meestal zit je in de hoek van C/C++/C#. En de IDE heeft er van alles bij, dus IDE++ ;-).

Visual code is iets lichter, heeft ook wel een debugger, maar compiler is minder gangbaar (kan wel, kan zelfs vanuit vi, emacs of notepad++), eerder voor Javascript, React, HTML, Python, Perl, CSS etc. Dus iets meer in de scripting/interpreter talen (al kun je ook vite gebruiken voor een 'soort van build' en zijn er ook makefiles). Ik twijfel zelf of je dit ding een IDE moet noemen. Goed, IDE-- dan.

Sommige zaken lopen in elkaar over qua functionaliteit. Er is een grijs gebied. VSCode is gratis, Visual Studio, uitgezonderd de community edition niet. En de extra features zijn soms erg handig c.q. noodzakelijk. Hangt er maar vanaf wat je use case is.
Het concept van een IDE bestaat al heel lang, daarvoor waren er vooral uitgebreide text editors met plugins. Java is specifiek geschreven om goed met IDE's te werken, bijvoorbeeld het idee dat een class name altijd gelijk is aan de file name. IBM had zelfs een Java IDE waarin de code werd opgeslagen in een DB in plaats van een file systeem. VS is een (initieel redelijk beperkte, nu uitgebreid ondersteuende) vorm van een IDE die is uitgebracht na vele Java IDE's.
Integrated development environment

Eerst lezen en dan pas reageren :X

[Reactie gewijzigd door eBoR op 18 november 2025 17:07]

Link naar de tool. Het is geen OSS.
Lijkt me weldegelijk VS Code gebaseerd, asl ik de screenshots op de product page bekijk (en dan met name de Editor view). https://antigravity.google/product
Ja, dat is het ook. Je kunt de settings importeren uit alle gangbare vscode varianten - vscode, cursor, windsurf, etc.
Ik kreeg toevallig vandaag een bericht van OpenAI dat ik met mijn abonnement ook toegang tot Codex heb. Zou dit een reactie zijn op het nieuws van Google?
Is dit niet net zoiets als LMstudio?
Nee totaal anders. LM studio is iets om LLM's op je eigen hardware te draaien.
Antigravity daarentegen is een tool om software te schrijven met LLM's die in de cloud draaien.
Had net zo goed een plug-in kunnen zijn
Heb er gisteren mee gespeeld. Het lijkt idd erop dat het iets lekkerder werkt mbt plannen en uitvoeren. Dus het is zeker wel een volgende stap en niet “weer een IDE met agent functionaliteiten”.

Ik heb een pro account. Na 1x Gemini 3 pro high uit te voeren kreeg ik al dat ik over mijn limiet was (plan fase). Daarna paar keer gehad dat Gemini 3 low model vast liep vanwege drukte. Resultaat was wel positief.

Alleen is dit wel een heel duur model (factor 10) geen idee of het dan nog interessant blijft als je moet betalen. Los daarvan ben ik altijd benieuwd hoe goed een model nog werkt na 30 dagen. Heb altijd het idee dat ze het terug schroeven na de hype.
De zoveelste AI first IDE gebaseerd op VSCode. Ik juich toe om met nieuwe UX modellen te proberen parallel agentic coding gemakkelijker en intuïtiever te maken. Maar van mij hoeven die findings niet allemaal in een op VSCode gebaseerd eindproduct. Ik ben zelf ook gebruiker van VSCode en Cursor, maar ik ben recentelijk gaan experimenteren met Zed. Dat is een IDE die helemaal van de grond af aan opnieuw is opgebouwd als AI first IDE. Het is bovendien razendsnel doordat het in Rust gemaakt is en dus niet van een browser (Electron) of Java runtime afhankelijk is. Een verademing als je decennia VSCode en Jetbrains producten hebt gebruikt om te programmeren.
Zag hun filmpje en ben er mee aan het spelen geslagen. Is wat rustiger om mee te beginnen dan VScode (ben geen programmeur) en de integratie met Gemini gaat prima.

Om te kunnen reageren moet je ingelogd zijn