Claude laat betalende gebruikers zelf AI-vaardigheden ontwerpen met Skills

Betalende gebruikers van Claude kunnen het AI-model nieuwe vaardigheden aanleren via Skills. Dat zijn mappen met instructies, scripts en bronnen die Claude kan gebruiken. Claude heeft alleen toegang tot een vaardigheid wanneer die relevant is voor de huidige taak.

Anthropic schrijft dat vaardigheden Claude beter maken in het uitvoeren van gespecialiseerde taken, zoals het maken van Excel-bestanden of het volgen van de richtlijnen in merkdocumenten. Anthropic had Skills-modules voor het maken van spreadsheets en presentaties al in Claude-apps beschikbaar gemaakt. Nu kunnen Pro-, Max-, Team- en Enterprise-gebruikers ook hun eigen vaardigheden ontwerpen. Deze zijn te gebruiken in Claude-apps, Claude Code en via de api.

Gebruikers kunnen vaardigheden maken via een speciale tool. Na een aantal vragen over de taak genereert Claude een mappenstructuur, maakt de bot een skill.md-bestand en bundelt hij de bronnen die nodig zijn om de taak uit te voeren. Er is geen handmatige bestandsbewerking van gebruikers nodig, benadrukt Anthropic.

Volgens het bedrijf kan Claude ook meerdere vaardigheden tegelijkertijd gebruiken en is het bestandsformaat tussen verschillende Claude-toepassingen hetzelfde. Daarnaast zou Claude alleen de vaardigheden gebruiken die nodig zijn, waardoor het tokengebruik binnen de perken blijft. In de toekomst wil Anthropic het creëren van vaardigheden verder vereenvoudigen en het bedrijfsbreed implementeren van vaardigheden mogelijk maken.

Door Imre Himmelbauer

Redacteur

18-10-2025 • 09:52

18

Submitter: Westpjotr

Reacties (18)

Sorteer op:

Weergave:

Dit lijkt denk op https://docs.github.com/e...d-repository-instructions

Je kunt gedrag en basis kennis definiëren zoals ik hier gedaan heb: https://github.com/BrickD...copilot-gpt-code-improver

Maar ook coaches in bepaalde kennis gebieden of vraagbak gebaseerd op een bestand met alle details over een bepaald framework.

Ik ben nu bezig om de kennis en het redenatie patroon van mensen die tegen hun pensioen aan zitten op deze manier vast te leggen.
Werkt zeer krachtig. Ik krijg reacties als: "Het is alsof ik mezelf zie, maar dan niet in de spiegel". bij het testen van het resultaat. Ook de vakgenoten zijn vaak dol enthousiast, want ineens hebben ze deze persoon altijd beschikbaar om mee te sparren.

Het is zeer krachtig.
Lijkt ook op een Custom GPT van OpenAI.

[Reactie gewijzigd door djwice op 18 oktober 2025 10:33]

Je enthousiasme is fijn om te zien. Toch begin ik dit jaar enkele problemen te zien bij inzet van LLMs. Ik merk dat gebruikers vaak de output als bruikbare informatie zien, terwijl dat lang niet altijd het geval is.

In de code die we genereren zie ik ook een patroon ontwikkelen waarbij we minder kiezen voor lichte logica en onze code steeds stugger en meer boilerplate lijkt te worden. Dit ligt in lijn met wat onze LLMs voorstellen. Dit introduceert nodeloos gecompliceerde code en een groter raakvlak voor bugs.

Ook in de informatie die we winnen in een gesprek met een LLM, merk ik dat we steeds vaker fouten tegenkomen die erg goed vermomd zijn tussen correcte feiten. Zo lang we deze problemen niet aanpakken - als ze al aangepakt KUNNEN worden - lijkt het me niet heel nuttig om extra services op basis van deze kern te bouwen.

[Reactie gewijzigd door Division op 18 oktober 2025 10:43]

Dit is het hele probleem van LLMs. Je bent meer tijd kwijt met context schetsen voor de AI dan dat je het gewoon zelf schrijft.

Kap gewoon met deze onzin. Code schrijven is al makkelijk genoeg tegenwoordig. Het probleem is niet het schrijven van code, maar de vraag duidelijk krijgen. Was het altijd al.

Dat gaat AI niet oplossen voorlopig.
Voor korte teksten heb je gelijk. Maar probeer eens de consistentie van een contractdocument met 300 bladzijden, geschreven door meerdere teams, met de hand te checken. Als je daar 1 keer een goede prompt voor ontwikkeld bespaar je daarna niet alleen reviewtijd maar de contracten zijn ook beter dus een lager risico. En dit is maar 1 voordeel waar AI grote voordelen heeft. Aleen zo jammer dat net als met andere nieuwe dingen mensen het gebruiken om zoekopdrachten te vervangen of "leuke" plaatjes te maken.
Weet je wel zeker dat je review tijd bespaard? Juist met grote stukken tekst wordt de kans op fouten door LLM ook groter. Althans, dat is mijn ervaring met de standaard LLM's (dus niet getraind op specifieke data). En zal dat contractdocument niet ook nog eens woord voor woord door een persoon gecontroleerd moeten worden of vertrouw je daar de LLM op?

Mijn ervaringen zijn heel wisselend. Het kan tijd schelen, maar ik heb ook wel momenten gehad waarbij ik uiteindelijk het zelf opgepakt heb om een document te maken en dan enkel de LLM nog gebruikte om deelteksten iets anders te laten weergeven (soms beter, soms slechter).
Heb lang dezelfde problemen gehad maar dit jaar ben ik toch overstag gegaan. Agents kunnen zelf de context opzoeken uit excels db's of pdf, via custom instructions kan je het probleem kaderen in 1 keer niet met elk request, de agent kunnen zelf hun code uitvoeren en checken, je kan bv snel een puml diagram genereren en wat situational awareness krijgen waar je eerder uren mee bezig was. Als wat niet kritisch is laat ik daar copilot doen. Vaak werk waar ik anders nooit aan toe kwam.
Daarvoor moet je goede custom instructions opstellen. Patterns, frameworks, voorbeelden, mappen waar dingen moeten staan etc. Dat scheelt echt veel.
Als je de GitHub link bekijkt en het bestand in de .github map, zie je een aanpak die helpt de code beter te krijgen.

Software wat normaal weken werk was en voor deze prompt met AI nog een paar dagen koste, kan ik nu in 1 of twee prompts laten ontwikkelen in een paar minuten met behoud van modulariteit en andere best practices.

Het is dus zeer belangrijk hoe je de instructies maakt. De coaches en de experts die ik ontwikkel en die de mensen maken die ik begeleid zijn zeer gekaderd; de kennis mag alleen uit de bron komen en redenaties alleen binnen de gegeven concepten. Ook bijvoorbeeld het taalgebruik en de woordkeuze definieer ik.
En ook het type reactie als de gebruiker fouten maakt conform het framework en hoe de gebruiker naar begeleidt moet worden.

Uiteraard is niets perfect, zo is ook de meest senior mens.
Volgens mij is het anders dan dit. Je kon al met Claude agents beschrijven. Maar nu kun je dus naast gedrag, ook beschrijven hoe je bepaalde taken kunt afhandelen.

In het voorbeeldfilmpje laten ze zien hoe je kan beschrijven hoe je een een afbeelding zou moeten draaien. Het klinkt als een krachtige uitbreiding!
Je custom instruct kon ook al bijvoorbeeld Python functies bevatten die toegepast/uitgevoerd werden als dat van toepassing is. Die konden ook gewoon zelfstandig als bestand bestaan, dus de code hoefde niet in de markdown opgenomen te worden, een verwijzing is genoeg.

Het is nu alleen wel veel makkelijker geworden om ze te maken voor een grotere doelgroep.
Dus als ik het goed begrijp dan moet je maandelijks betalen én voor het bedrijf waar je aan betaald 'gratis' uren ter beschikking stellen én je weergaloze projecten gaan delen in de hoop dat de AI er beter van wordt zodat je uiteindelijk waar voor je geld krijgt?
Claude kan ook lokaal draaien als je geen code wilt delen.
Helaas, er is geen lokaal Claude model dat je offline kan draaien. Je bedoelt misschien de API gebruiken?
Claude kun je gewoon lokaal in Ollama draaien, vervolgens koppel verwijs je jouw favoriete ontwikkelomgeving naar de lokale Ollama . Voorbeeld hier: YouTube: Claude Dev with Ollama - Autonomous Coding Agent - Install Locally
Claude dev (tegenwoordig Cline) ≠ Claude by anthropic

[Reactie gewijzigd door singingbird op 18 oktober 2025 22:15]

Je moet alleen wel je versie beheer van je 'skills' goed op orde hebben/houden. Maar dat is niet wezenlijk anders dan de medewerkers op de hoogte houden van proceswijzigingen. :)
Het mooie is, het skill.md-bestand zit waarschijnlijk in je git-repo :)

[Reactie gewijzigd door djwice op 18 oktober 2025 11:05]

Via plugins kan je dit centraal uitrollen als je dit niet via je eigen repo wil doen. Voornamelijk voor teams is dit handiger. Werk je solo? Dan kan je prima lokaal in de user map de skills, commands en agents plaatsen. Zie https://docs.claude.com/en/docs/claude-code/plugins#install-and-manage-plugins voor meer info over de plugins.


Om te kunnen reageren moet je ingelogd zijn