Anthropic brengt koppelplatform voor AI-diensten onder bij Linux Foundation-tak

Anthropic gaat het beheer van zijn Model Context Protocol, dat het zelf aanduidt als 'USB-C-poort voor AI', onderbrengen bij de Agentic AI Foundation, dat onder de Linux Foundation valt. Vergelijkbare initiatieven als Agents.md en goose vallen onder diezelfde stichting.

Die Agentic AI Foundation is nieuw, zegt Anthropic. Het bedrijf is zelf een van de oprichters, samen met Agents.md-maker OpenAI en goose-maker Block. Google, Microsoft, Amazon, Cloudflare en Bloomberg zijn ook betrokken bij de stichting. De bedoeling daarvan is om AI-agents open en transparant te ontwikkelen met open standaarden.

Anthropic maakte MCP vorig jaar al opensource beschikbaar. Inmiddels zijn er al vier releases geweest van het protocol en zijn er bijna honderd miljoen maandelijkse downloads van de sdk van de standaard. Met MCP kunnen gebruikers AI-diensten koppelen aan bestandssystemen of andere webdiensten. Het is onder meer in gebruik om AI-chatbots te verbinden met databases. Ook kunnen AI‑diensten daardoor gebruikmaken van andere diensten en daardoor meer functies uitvoeren.

Door Arnoud Wokke

Redacteur Tweakers

10-12-2025 • 11:10

30

Reacties (30)

Sorteer op:

Weergave:

Wat doet deze "Usb-C poort voor AI" precies?
Simpel gezegd zorgt het ervoor dat externe diensten gekoppeld kunnen worden aan de AI agent. Dus stel dat jij een MCP hebt voor een CMS (content-management systeem), dan kan je AI vragen om post the maken op je website. Met een MCP kan die dan de API aanroepen van het CMS om een nieuw artikel aan te maken en de tekst te posten. Zonder MCP moet de AI agent eerst weten hoe die posts kan aanmaken op een website via de web-interface (en daar heeft die wellicht niet de rechten toe).

Daarom wordt het ook wel de USB voor AI genoemd. Het is een manier om allerlei dingen op een universele manier aan te koppelen.
Heeft dan niet iedere CMS een API nodig waarmee je content kan posten ? En zijn er dan connectors/interfaces tussen de MCP en de specifieke CMS API's en hun versies ?
Vim -> Agent(Model) -> MCP -> CMS-Connector -> CMS API Call ?
De artikelschrijvers proberen mensen aan te spreken met 0 technische kennis. Wat het ècht betekend is simpelweg dat Anthropic een paar protocollen gratis/opensource heeft gemaakt. En alle problemen mogen door de Linux Foundation opgelost worden :)
En het geeft andere partijen de mogelijkheid om iets aan het protocol bij te dragen/aan te passen.
Ze waren al gratis en open source. Wat ze gedaan hebben is een open organisatie waar meerdere bedrijven en personen zich bij kunnen aansluiten eigenaar gemaakt. Dat betekend eigenaar van eventuele issues (wat die ook mogen zijn) en dat de doorontwikkeling en fixes in onderling overleg gebeuren en niet alleen bepaald worden door anthropic.

Al met al dus een positieve stap.
Waarom is dit een positieve stap en waarom moet dit onder de Linux Foundation terecht komen ?
wow wat een verhelderend en totaal niet cynische blik

Een beetje als


Ja god geeft dan wel de wereld en het universum geschapen maar nu zitten wij mooi met: huizen tekort, 3 potentiële wereldoorlogen, een paar potentiële Kernrampen etc
Je kan een hoop informatie vinden hierover op de website voor het Model Context Protocol (MCP) https://modelcontextprotocol.io/docs/getting-started/intro

In het heel erg kort bied het een standaaard manier aan om AI te laten koppelen met externe systemen. Zo kan je het bijvoorbeeld laten connecten met Figma zodat het bij het generen van websites houdt aan de design die je in Figma gedefinieerd hebt.
Wat ze hopen dat 1 standaard / in en outgangsport word voor AI toepassingen
Het is een standaard waarmee je, als het ware, add-ons kunt schrijven voor je LLM (Large Language Model). Een MCP server kan context en skills bieden, bijvoorbeeld een lijst met producten geven, waardoor de LLM weet welke producten beschikbaar zijn, of door de huidige datum en tijd te geven, of een rekenmachine zodat hij echt kan rekenen, etc. De mogelijkheden zijn eindeloos.

Maar MCP is dus vooral de standaard waar je deze externe contextproviders op in kunt pluggen.
De laatste keer dat ik er naar keek viel het mij op dat een groot deel van de standaard kan worden omschreven als "developers documenteer je API's eens fatsoenlijk" Een aantal functies met een omschrijving ala openAPI met duidelijke textuele omschrijvingen van in en output. De AI interpreteert op basis van de documentatie wat hij met een MCP server kan.
Ja dat is correct.

Om heel eerlijk te zijn heb ik sterk het idee dat het ook niks meer is dan OAS, maar dan "humab readable" in zijn geheel. OAS is als tool ondertussen veel verder gegroeid, met standaard responses en volledige JSON schema support.

MCP lijkt in dat opzicht meer op een "schrijf het maar gewoon op"
Heeft niks met usb c te maken. Het is simpelweg een protocol voor AI om data op te halen uit een database. Het is daardoor eerder vergelijkbaar met http in mijn beleving
Het heeft ook niks inherent te maken met een database, het is gewoon een enigszins gestandaardiseerde aanpak aan het worden om een LLM met je applicatie te laten interfacen middels MCP, of die nou een database heeft of niet. Nog even en elke zichzelf respecterende applicatie heeft wel een MCP-ingang.

[Reactie gewijzigd door MsG op 10 december 2025 12:03]

Heeft niks met usb c te maken.
Ik denk dat @Lnaisd de beeldspraak wel begrijpt want hij gebruikt de quotes correct. Hij vraagt naar de inhoud.

Het is ook niet vergelijkbaar met http anders dan dat beiden standaarden zijn. MCP kan lokaal via Pipes, of via HTTP of via eigenlijk elk ander transport. De standaard specificeert dit niet. Alleen wat er gecommuniceerd word staat er in en hoe.
Dit is een goede stap. Laten we hopen dat die standaarden snel door alle partijen bredere ondersteuning krijgen, vooral de AGENTS.md, ik zie geen .aiignore, maar dat is ook echt een drama met al die verschillende varianten (.aiderignore, etc.).

Over MCP, ik gebruik het soms, maar het is een context vreter als je lokale modellen gebruikt. Dus wellicht is dat nog iets dat beter kan, tweaker djwise, gebruikt hiervoor skills en heeft gedeeld in een andere discussie hoe hij dat inzet, hopelijk gaan skills ook bredere ondersteuning krijgen, dat lijkt meer op een soort slimme lookup voor relevante context en die aanpak werkte lokaal een klein beetje beter (voor mij althans, maar heb er slechts een uur of drie meer getest).
Goed dat grote spelers als Google en Microsoft meedoen. Hopelijk blijft het niet bij mooie woorden maar wordt het ook echt open en transparant.
Het is al open en transparant
Goed dat grote spelers als Google en Microsoft meedoen
dat maakt het wat mij betreft een standaard die direct veel te traag gaat.

Microsoft is echt niet snel als het gaat om standaarden en legacy drops.
Je roept iets generieks, maar de integratie van MCP gaat juist veel te snel bij MS. Nu al in Windows gooien terwijl het vol veiligheidsrisico's zit. Geldt eigenlijk voor bijna overal waar MCP ingezet wordt. Het heeft veel potentie en toegevoegde waarde, maar de integratie gaat te haastig.
Statistieken als 'honderd miljoen maandelijkse downloads' vind ik een lastige indicatie van het bereik of relevantie. Hoeveel hiervan zal onderdeel zijn van een build pipeline met beperkte impact?
Die stelling telt voor elke download. Dus je kan de relatieve waarden nog steeds tegenover elkaar vergelijken. Het duid in ieder geval aan dat het gebruikt word. Het komt niet in een build pipeline omdat developers het niet inzetten.
Ik heb een MCP nog nooit netjes zien werken, je moet altijd superduidelijk aangeven "GEBRUIK DE MCP" en dan nog steeds kan het fouten ermee maken en de MCP negeren omdat er geen goede info uitkomt. En dit is niet met oude modellen, zelfs de SOTA heeft er best wat moeite mee. In mijn opinie is dit toch nog verre van wat we willen qua 'usb-c voor AI'.
Misschien is het wel USB 1.1 voor AI?
das toch niet zo gek? Je moet in iedere prompt ook de tool omschrijving leveren zodat het model ook kan weten wat het kan doen en hoe het dat in moet zetten.
MCP is een rommelig in elkaar gehackt protocol dat een hoop vooruitgang de komende jaren gaat tegenhouden.

Een van de problemen is dat het voortborduurt op de limitaties van JS / JSON omdat de lowest common denominator is geworden.

Nu is het allemaal prachtig, maar over een paar jaar is het “hadden we maar”.
A2A en MCP zijn beide gewoon een protocol met een berg JSON docs en wat API's bij elkaar.

Is het hele "AI" niet over een paar jaar: "Hadden we maar...."
@arnoudwokke ik vind deze titel nogal onduidelijk, maar snap de metafoor. Misschien kun je de volgende keer een iets duidelijkere titel kiezen.

Om te kunnen reageren moet je ingelogd zijn