Microsoft maakt AI-modellen van Anthropic beschikbaar in Microsoft 365 Copilot

Microsoft neemt in zijn 365 Copilot-aanbod de Claude-modellen van AI-aanbieder Anthropic op naast de ChatGPT-modellen van OpenAI. De Anthropic-modellen zijn als optie te kiezen in Researcher voor informatieanalyse en Copilot Studio voor het bouwen van eigen AI-agents.

Gebruikers van Microsoft 365 kunnen voor de AI-assistent Copilot nu een ander AI-model als ondergrond kiezen. Microsoft neemt de modellen Claude Sonnet 4 en Claude Opus 4.1 op in zijn AI-aanbod. Het bedrijf verklaart dat Copilot aangedreven blijft door de nieuwste modellen van OpenAI, maar dat klanten nu de flexibiliteit hebben om ook modellen van Anthropic te gebruiken.

De mogelijkheid om een andere motor te kiezen voor de AI-mogelijkheden van Copilot geldt nu voor twee specifieke AI-toepassingen van Microsoft. Dit zijn Researcher en Copilot Studio. Met Researcher kunnen gebruikers analyses laten uitvoeren op grote hoeveelheden data, zoals eigen e-mails, vergaderverslagen, bestanden, chatconversaties en content op het web. Met Copilot Studio kunnen gebruikers zelf AI-agents aanmaken en aanpassen. Het is daarbij ook mogelijk om verschillende AI-modellen van OpenAI en Anthropic te gebruiken en combineren.

Voor gebruik van de nu toegevoegde AI-modellen van Anthropic moeten gebruikers eerst een opt-in daarvoor aanklikken. Daarna is dit alternatief voor OpenAI te kiezen, wat Microsoft toont in onderstaande video. Het bedrijf heeft in de afgelopen jaren miljarden dollars geïnvesteerd in ChatGPT-maker OpenAI.

Eerder deze maand hebben de twee AI-partners overeenstemming bereikt over hoe OpenAI toch een commercieel bedrijf kan worden. Daarvoor was toestemming van Microsoft nodig, die op zijn beurt garanties wilde voor toekomstig gebruik van OpenAI's modellen.

Door Jasper Bakker

Nieuwsredacteur

25-09-2025 • 15:11

8

Reacties (8)

Sorteer op:

Weergave:

Let op dat deze opt-in Microsoft 365 het volgende betekent: (deze opt-in kan alleen uitgevoerd worden door een global admin)

Als je organisatie kiest voor het gebruik van een Anthropic-model, dan deel je gegevens met Anthropic. Deze gegevens worden verwerkt buiten Microsoft-omgevingen, waardoor Microsoft’s afspraken over gegevensverwerking, beveiliging, compliance en servicevoorwaarden niet van toepassing zijn. In plaats daarvan gelden dus de voorwaarden van Anthropic zelf.

Voorwaarden: Commercial Terms of Service \ Anthropic
Data handling: Data Processing Addendum \ Anthropic

[Reactie gewijzigd door FREAKJAM op 25 september 2025 15:31]

Betekend dus idd datje data verwerkt wordt buiten de safe tenant silo die copilot Ai wel bied.
Hetzelfde geldt als je dus delen met Bing aan hebt staan. Dit wordt zo onderschat. Wordt gek van die MS goeroes die stellen dat MS perfect is. Nou bij flink wat copilot toepassingen & de agents verdwijnt je data gewoon maar de VS. Moest laatst eens lijken naar de voorwaarden van Github Copilot. Die data gaat de hele wereld over.
Alleen je tenant blijft binnen je tenant , dat is de garantie github zit niet in je tenant
Ik hoop dat ze het ook beschikbaar maken voor de analist agent. Claude is erg goed met excel.
Heeft iemand een idee of er al API support gepland is voor Copilot M365?

Ik gebruik momenteel Playwright om mijn Python scriptje LLM calls te laten doen, maar dat is niet ideaal...
Wellicht met copilot studio.
Hoe betrouwbaar zijn die analyses en samenvattingen dan?

Ik las onlangs nog dat AI's in het algemeen nog steeds aan hallucineren doen.

Wat heb je dan aan een samenvatting door een AI? Want als je je werk goed wilt doen heb je dubbel werk. Eerst moet je de samenvatting lezen en daarna moet je controleren of de samenvatting klopt.

Ik vind het maar een gevaarlijke ontwikkeling die een hoop mensen op het verkeerde been kan zetten.


Om te kunnen reageren moet je ingelogd zijn