Chrome kan vooraf opgeslagen Gemini-prompts uitvoeren

Google geeft gebruikers van zijn browser Chrome de mogelijkheid om Gemini-prompts op te slaan en vervolgens met een druk op de knop uit te voeren op een webpagina. Dat zou onder meer handig moeten zijn voor recepten, zegt de techgigant.

Google noemt die opgeslagen prompts Skills. Die zitten in de zijbalk van Chrome en gebruikers kunnen die op het huidige tabblad of op vooraf geselecteerde tabbladen uitvoeren. Dat moet het gebruik van de AI-tool in de browser sneller en handiger maken, zo redeneert de maker van Chrome en Gemini.

Als voorbeelden waarvoor dat handig kan zijn noemt Google onder meer het vegan maken van recepten of het toevoegen van meer eiwitten aan een recept. Ook zouden gebruikers door meerdere tabbladen te selecteren producten kunnen vergelijken met een enkele prompt. Andere voorbeelden zijn bijvoorbeeld het omzetten van elke tekst naar de tekst voor een filmtrailer en het helpen met uitzoeken van een cadeau.

De functie is vooralsnog beperkt tot gebruik op desktop. Dat werkt in Windows, macOS en ChromeOS. Ook moet de taal op Amerikaans Engels staan. Skills zijn te synchroniseren zolang de gebruiker met hetzelfde account op meerdere computers is ingelogd in de Chrome-browser. Er is ook een downloadwinkel voor al gemaakte Skills die Google beheert.

Of en wanneer de functie in andere talen en op mobiel beschikbaar komt, zegt Google niet. Wel bracht het bedrijf de Gemini-functie Personal Intelligence dinsdag voor het eerst buiten de VS uit. De functie, waarmee Gemini zich kan baseren op mails en kalenderitems van gebruikers, werkt nu ook in India.

Google Chrome Gemini Skills
Google Chrome Gemini Skills

Door Arnoud Wokke

Redacteur Tweakers

14-04-2026 • 20:17

32

Reacties (32)

Sorteer op:

Weergave:

"geef mij een opgesomde lijst van dit recept" in plaats van eerst door 4 pagina's aan verhaal en pagina vullende advertenties en een cookiekeuzelijst en automatisch spelende video's heen te moeten klinkt dit wel als een uitkomst.
Prachtig dat Google de interface gaat spelen tussen een enshittified website, en de gebruiker van die website. Hiermee doen ze twee dingen:

1. Ze hebben een reden om de site te scrapen en aan hun model te voeren, als het in opdracht van een gebruiker is een stuk beter uitlegbaar dan 'ruw' scrapen, en bovendien leert het Google meer over het model.
2. Als je ervoor kiest om een betaalde versie van het model te gebruiken (voor kwaliteit of intensiteit), dan betaal je eigenlijk Google voor een soort API tot exact díe content waar je naar op zoek was. Precies de manier waarop het web had moeten werken in een betere variant van ons universum...
Wat nog beter zou zijn was dat die content in de eerste plaats niet enshittified was :) . En ironisch is dat het mede door Google en hun advertentie model is, dat al die websites enshittified zijn. Eerst creëren ze het probleem, nu lossen ze het probleem op dat ze mede gecreëerd hebben. De cirkel is rond (ik weet nog niet of jouw bericht sarcastisch bedoeld was of niet)

[Reactie gewijzigd door Katanatje op 14 april 2026 23:41]

Dat is dan wellicht weer niet zo interessant voor Google op de korte termijn. Maar ze kunnen dan straks wel extra vaak zelf de advertenties toevoegen aan de samenvatting ipv dat de website de inkomsten heeft. 😉
Toch zou ik alles nog nalezen om te kijken of ie écht niets gemist heeft. AI is leuk, werkt best aardig, maar nog steeds 'onbetrouwbaar'. Begin in ChatGPT Maar eens een zin met; 'Klopt het dat XXXX' , dan krijg je een bericht dat hierin mee gaat. MAar stel je die vraag andersom; 'Klopt het dat het niet zo is dat .....' over hetzelfde, en je zult zien dat wat is wel klopt, nu niet klopt...
De onbetrouwbaarheid ga je met onder genoemde niet oplossen, maar het inderdaad vrij meepraat gedrag van llm's kan je wel flink verbeteren door in je standaard instructies dit expliciet mee te geven (openai en anthropic hebben dit beide ergens in de instellingen zitten)

Door daar duidelijk aan te geven hoe je wilt dat er gecommuniceerd wordt, kan je dit echt flink verbeteren.

Ik heb vrij uitgebreide instructies gegeven als: stel wedervragen, als je twijfelt aan wat ik zeg zeg dat dan, wees eerlijk ook als dat niet positief is, wat ik zeg is niet altijd de beste oplossing als je betere suggesties hebt zeg dit. Als je zelf twijfelt vragen en niet gaan gokken. Etc etc

En dat maakt inderdaad dat ik regelmatig antwoorden krijg waarin llm mijn vragen of opmerkingen betwist of verder vraagt
Zet cooked.wiki/ voor je url en hij pakt het recept voor je :)
Dat ziet er wel goed uit!
Ublock Origin en Idontcareaboutcookies installeren is te veel gevraagt, liever alles aan LLM van advertentieboeren uitbesteden.
"Geef mij de clue van de titel" ipv door 25 pagina's te klikken met ieder 5 regels tekst en het uiteindelijk nog steeds niet weet... :+

[Reactie gewijzigd door Step5 op 15 april 2026 10:17]

Ai brengt wat dat betreft weer veel mooie nieuwe dingen. Want het kan ook zo zijn dat je allergisch bent voor een ingrediënt en dan kan je direct vragen of je daarvoor een alternatief kan gebruiken
Wauw, ik snap wel waarom mensen advies van ChatGPT opvolgen en vervolgens in het ziekenhuis belanden of erger.
@arnoudwokke meer informatie over Skills (het is een generiek afgesproken standaard, geïntroduceerd door Anthropic en omarmt door de rest van de llm bedrijven): https://agentskills.io/home

De meeste AI-Agents zijn en worden in deze standaard gemaakt. En ja, wellicht teleurstellend / een desillusie: zo simpel is het om een agent te maken: een markdown bestand in de juiste opmaak (incl. yaml front matter ) en naamgeving en eventueel wat scripts in een afgesproken folderstructuur en wellicht nog extra markdown bestanden voor progressive disclosure.

Iedereen (hint: jij bent daar zeker een van) die goed is in het compact en eenduidig schrijven van tekst kan een goede agent bouwenschrijven. Die vervolgens in de meeste AI omgevingen ingezet kan worden.

[Reactie gewijzigd door djwice op 14 april 2026 21:22]

En ja, wellicht teleurstellend / een desillusie: zo simpel is het om een agent te maken: een markdown bestand in de juiste opmaak
Een agent is alleen net iets anders dan wat je hier twee keer schrijft.

Agent = software die een taalmodel gebruikt met patronen afgeleid uit teksten. Geen Markdown-document.

Skill = Markdown voor het taalmodel, ingeladen via een agent of handmatig toegevoegd aan een prompt (werkt allebei).

Tevens is het jammer genoeg niet nuttig om zo overtuigd te stellen dat compacte prompts beter zijn. Dat hangt af van hoe en waarvoor je het gebruikt. Gebruik je een agent als chatbot voor simpele vragen: ja, dan kan het op zich. Wil je duidelijke resultaten: nee, dan gebruik je de techniek niet optimaal, zeker zolang o.a. de contextgrootte het toelaat, omdat het (in dit geval) een "transformer" is en niet een chatbot.
edit:
Iets aangepast omdat ik schreef dat een agent een of meerdere modellen kan bevatten in een poging de discussie te versimpelen, maar beter is het om het dan over de aansturing (de host) van de agents te hebben. Dit verandert de discussie niet echt, maar een correcte definitie op alle vlakken is hier belangrijk en daar heeft @djwice mij in een forumtopic wel goed op gewezen.

[Reactie gewijzigd door Stukfruit op 15 april 2026 18:28]

Ik begrijp je reactie niet helemaal. Een agent is simpelweg een instructie voor een taalmodel en scripts die lokaal (op een server) instructies / handelingen / commando's uitvoeren.

Dat is letterlijk wat een skill is. Het kan zijn dat jij een wat verouderde manier gebruikt op agents te maken, maar dit - agent skills - is simpelweg de standaard die breed wordt ondersteund.

Je haalt het woord 'compact' uit zijn context. Ik schreef "compact en eenduidig". Alles wat je onnodig toevoegt is kan leiden tot divergentie. Dus beide zijn noodzakelijk.

Vanuit IT-architectuur oogpunt is het niet verstandig 1 agent meerdere verschillende modellen tegelijk of achter elkaar te laten gebruiken: separation of concern is een belangrijk ontwerp criterium voor onderhoud baarheid en flexibiliteit. Tight koppeling is alsof jij en je collega met de benen aan elkaar gekoppeld door het pand moeten lopen heel de dag, ook de trap op en af en ook als je naar de wc gaat of je wil verfrissen (refresh, update, restart, scale up etc).

[Reactie gewijzigd door djwice op 15 april 2026 10:53]

Je gebruikt terminologie op een manier die echt niet logisch is.

Separation of concerns heeft weinig te maken met wat je hier schrijft en een agent is geen stukje tekst(instructie). Denk er even over na: een stuk tekst die een stuk tekst aanstuurt?

Via die taalmodellen kan dat effectief wel, maar de techniek waarmee dat tot stand komt zit iets anders in elkaar. Je haalt dat hier door elkaar.

[Reactie gewijzigd door Stukfruit op 15 april 2026 11:16]

Ik weet niet waar je naar verwijst. Ik maak deze dingen meerdere keren per week, geef trainingen aan honderden mensen, dag na de trainen hebben mensen zelf AI agents gemaakt en ze aan de slag gezet. En hebben daarna werkende en goed uitgevoerde taken volbracht.

Ik begrijp niet wat er verwarrend is. De SKILL.md gefineerd het gedrag van de agent en zijn context, de scripts, templates etc. die ie kan gebruiken staan in de subfolders. En eventueel ook de progressive disclosing features.

Zo ingewikkeld is dat toch niet?

[Reactie gewijzigd door djwice op 15 april 2026 16:29]

Gedrag van de agent, dus niet de agent zelf zoals je meerdere keren schrijft.

Wat ik trouwens in verschillende reacties van je merk is dat je doelpalen verschuift of terugvalt op autoriteit (hier: "maak deze dingen meerdere keren per week, geef trainingen aan honderden mensen") om alsnog tot een sluitende reactie te komen, maar mag ik je eraan herinneren dat je hier op een website zit met mensen die misschien ook enige vorm van autoriteit genieten?

Je lijkt je technische kennis niet op orde te hebben en het is spijtig dat je dan zo stug blijft aangeven dat iemand het fout heeft, of zelfs pretendeert dat je een auteur van een artikel nuttige info geeft, terwijl de gegeven logica om te beginnen bij de omschrijving al niet klopt.
Lol. Dus je schrijft software en zegt dat de code niet de applicatie definieert?

Je deployed de code en dan nog vindt je het niet de applicatie?

Ik snap niet waar je naar toe wilt. Je geeft iemand een skill en die laad hem in zijn omgeving en hij werkt. Net als een executable, een deployment package etc.

Jij zegt dat ik niet logische dingen zeg, zonder überhaupt duidelijk te maken wat jij niet begrijpt. Dus kan ik je niet helpen door het op te schrijven op een manier die je wel begrijpt, want je zegt niet wat je niet begrijpt.

Ik gaf met mijn verwijzing aan dat ik niet snap waarom je een geaccepteerde en bijna door elk platform geïmplanteerde standaard voor AI-agents verwerpt voor je eigen definitie.

En bij hoog en laag blijft beweren dat ik de kennis niet heb. Beetje gek.

Ik snap dat er veel mensen zijn die graag code schrijven en dus denken dat een agent code first is. Maar dat is onnodig complex , daarom is deze standaard er. Accept en adopt.

[Reactie gewijzigd door djwice op 15 april 2026 17:28]

In elk geval bij github co-pilot zijn zowel skills als agents gewoon markdown bestanden. Ze bevatten alleen iets ander soort instructies, en ze worden anders gerepresenteerd in de UI.
Daar zit dan misschien de mogelijke miscommunicatie: eindgebruiker vs technische implementatie.

Wat je (en blijkbaar @djwice) hier noemt is onderdeel van de configuratie van de gemiddelde agent. In dit geval blijkbaar de system prompt.

Maar goed, dat kun je voor sommige tools ook instellen dmv JSON, of YAML, of desnoods in Python :p
Python code - als de agent dat nodig heeft - is ook onderdeel van het .skill bestand (een zip file met de .skill extentie) die staat dan in een subfolder en in de markdown staat dan de instructie wanneer en hoe het script gebruikt moet worden.

Skills draaien in de meeste AI omgevingen met een standaard loader.

En ja, ook bij AI agents is het verstandig om de prompt in een ander bestand te hebben dan je script en je template weer in een ander bestand etc. en als je verschillende AI modellen wil gebruiken elk een eigen agent te geven en de samenwerking te coördineren. Als een AI dan graag is of niet doet wat verwacht valt niet je hele functie // flow weg, slechts dat ene deel en je kunt de taken voor de andere AI an alvast opsparen (queue) of uit laten voeren door een fallback proces.

[Reactie gewijzigd door djwice op 15 april 2026 16:59]

En waar komt die loader vandaan? Die komt niet zomaar uit de lucht vallen ;)
Die loader is geen agent en de trigger ook niet, en dus ook geen onderdeel van de agent.

Net zozeer als mijn bericht waar hij op reageert ook niet onderdeel is van jou.

Of zeg je dat Kubernetes ook een agent is, want waar komt de memory en computer vandaan? Nee, toch?

Evenzo als een Kafka topic waar een micro service naar luistert, geen onderdeel is van die micro service.

[Reactie gewijzigd door djwice op 15 april 2026 17:12]

Mijn Chrome staat op Engels (VS) maar chrome://skills bestaat voor mij nog niet. De gelinkte pagina geeft aan 'dat het wordt uitgerold'. Nog even wachten dus.
zit zo lang te wachten op gemini in chrome, het is echt frustrerend
Je kunt in de adresbalk @ gemini (zonder spatie) typen en dan een vraag stellen?

Of bedoel je wat anders?
Is dit iets wat ook mogelijk is voor binnen andere internetbrowsers zoals Vivaldi? IK gebruik Gemini AI, maar ik vind het op mijn laptop toch beperkend door altijd maar in de browser te moeten gebruiken. Ik zou het liefst als native app zien op mijn MacBook.
je hebt denk ik wel extensions hiervoor...maar ik ben iemand die, vooral tegenwoordig, super huiverig is als het gaat om 3rd party extensions in browsers of andere software haha. ik gebruik liever zoveel mogelijk dingen rechtstreeks van google als het kan, daarom wacht ik hierop. zou veel beter moeten werken dan wat ik nu doe, URLs plakken in gemini en maar hopen dat het de pagina-inhoud ook daadwerkelijk kan pakken, want vaak is dat niet het geval

in edge heb je al sinds heel lang gewoon copilot in de zijbalk, ook gewoon hier in nederland, en dat is super handig gebleken. snap niet waarom het google zo lang duurt om dat hier uit te rollen

[Reactie gewijzigd door angushansen op 15 april 2026 11:36]

Edit: verkeerde thread.

[Reactie gewijzigd door Stukfruit op 15 april 2026 04:05]

We gaan naar een wereld waarbij google.com niet langer het voorportaal van het internet zal zijn, en waarbij mensen niet meer een heel artikel hoeven te lezen (web, krant, ..) als ze daar geen zin in hebben. De AI prompt wordt het voorportaal maar het is natuurlijk de vraag in welke vorm, en of er dan ook een dominante partij boven komt drijven. Zoals dat gebeurde toen web search groot werd, en er de facto maar één of misschien een handvol search engines populair werden, en daarmee dominant.

Wat mij betreft een goede zaak dat we deze technologie verder ontwikkelen. Op dit moment erg prettig om ook de vrijheid te hebben om een groot deel van de keten zelf te draaien (e.g. open-webui, met web search, en een LLM-at-home erachter). Ik vraag me wel af of dit zo blijft.

Om te kunnen reageren moet je ingelogd zijn