ChatGPT integreert OneDrive en SharePoint-documenten in deep research-functie

Microsoft en OpenAI integreren OneDrive en SharePoint in ChatGPT's deep research-functie. De nieuwe functionaliteit stelt gebruikers in staat om ChatGPT direct toegang te geven tot hun documenten voor realtimeanalyse.

De integratie is sinds vandaag beschikbaar in bètafase voor ChatGPT Plus-, Pro- en Team-gebruikers. Gebruikers in de Europese Economische Ruimte, Zwitserland en het Verenigd Koninkrijk hebben echter nog geen toegang. De beschikbaarheid voor Enterprise-gebruikers is nog niet bekend.

Het systeem werkt door gebruikersvragen om te zetten in gerichte zoekopdrachten binnen de gekoppelde documentbibliotheken. Wanneer een gebruiker bijvoorbeeld vraagt naar een financieel overzicht van het eerste kwartaal, genereert ChatGPT automatisch relevante zoektermen om de juiste documenten op te sporen.

Gebruikers kunnen de verbinding tot stand brengen via twee routes: direct vanuit het deep research-venster door te klikken op het dropdownmenu en SharePoint te selecteren, of via het Connected Apps-menu in de instellingen van ChatGPT. Na authenticatie kunnen gebruikers specifieke mappen selecteren waartoe ChatGPT toegang krijgt.

Voor organisaties die gebruik willen maken van deze functionaliteit is goedkeuring van de Microsoft 365-beheerder vereist. OpenAI zegt dat de dienst onderworpen is aan de voorwaarden van Microsoft en dat ChatGPT alleen zoekquery's deelt met Microsoft om relevante informatie in de gekoppelde documenten te kunnen vinden.

Door Andrei Stiru

Redacteur

13-05-2025 • 15:00

71

Submitter: eprillios

Reacties (71)

71
71
18
0
0
49
Wijzig sortering
Zucht, trappen mensen hier echt in? Waarom wil je dat nu doen? Waarom moet een AI nu weer in documenten zitten snuffelen? Als je dat wilt, download dan een offline model en laat deze lekker erin snuffen ipv een model die letterlijk alles opslaat ipv alleen maar te neuzen. Want het zijn zelflerende modellen, weet u nog?

Maar goed, misschien moet ik maar gewoon stoppen met te waarschuwen, want het wordt natuurlijk weer gebracht als een nuttige feature (met een 600 pagina's voorwaarden eraan verbonden die men toch niet leest). Men moet het natuurlijk allemaal zelf maar weten. Maar moe word ik persoonlijk wel dat men overal die dingen koppelt tegenwoordig.
Bij ChatGPT kun je toch standaard uitzetten dat je data gebruikt mag worden voor training? Bij mijn betaalde account in ieder geval wel.
download dan een offline model en laat deze lekker erin snuffen
Welk model met deep-research functionaliteit kan een gemiddelde gebruiker lokaal gebruiken?
Een die een GPU tot een GB of 16 (of 24) eist is wel redelijk betaalbaar te draaien. Alles daarboven is prijzig, want dure GPU nodig.
Ik heb een MacBook Pro M4 Pro met 48GB GPU memory. Daarop draait Llama en DeepSeek (niet de grootste versies). Best wel leuk; maar op deze hardware-specs komt het absoluut niet in de buurt van ChatGPT. Dus lokaal: Leuk, totdat je het wilt gebruiken :D
Ik heb een Mac Mini M4 Pro met 24GB RAM.

Die kan een stuk minder modellen aan dan mijn RTX 3080 met 10GB VRAM.

Merk toch wel dat de Unified RAM oplossing van Mac niet erg vriendelijk is voor lokaal modellen draaien. Die hebben toch liever echt dedicated VRAM.
M'n punt was dat lokale modellen gewoon láng niet zo goed zijn als de volledige cloud modellen, niet perse of Mac beter is dan een RTX ofzo :D
Ah nee zeker niet. Ik probeerde alleen mijn ervaring ermee te delen.

Probeer ook niet een VS verhaal ervan te maken.
Mac Ultra gebruiker hier: taalmodellen draaien prima op mijn Mac. Probleem is jouw geval is niet de VRAM, maar de magere hoeveelheid GPU's. Op mijn Ultra draaien de grootste taalmodellen (Qwen3, LLama4, Deepseek etc) prima werkbaar.
Daarop draait Llama en DeepSeek (niet de grootste versies). Best wel leuk; maar op deze hardware-specs komt het absoluut niet in de buurt van ChatGPT. Dus lokaal: Leuk, totdat je het wilt gebruiken
Die kleinere DeepSeek modellen hebben dan ook minder met hun grote broer te maken dan je op basis van de naam zou verwachten. DeepSeek 32B is bijvoorbeeld een distil van Qwen2.5 32B en de kwaliteit is niet echt denderend nee.

Lokaal loopt altijd achter inderdaad, maar een Qwen3 doet het al een stuk beter, als het om reasoning gaat. Voor gewoon gebruik is Gemma3, en dan speciaal de qat-variant (quantization aware tuning), echt goed hoor.
Ja, dat kan inderdaad. Maar heeft u nog vertrouwen in al die multinationals dan na alle fuckups van de afgelopen jaren? ik geloof eerlijk gezegd helemaal niks meer wat ze tegen ons zeggen.

En over je vraag welk model geschikt zou zijn. Ja, dat is natuurlijk geheel afhankelijk van je hardware en natuurlijk je wensen hoe je zoiets wilt gebruiken. Maar met een offline model ben jij in ieder geval nog baas over je eigen prompts en internettoegang. En met de juiste prompts en een specifiek model zou iedereen wel offline iets moeten kunnen draaien als je een beetje goed systeem hebt. En zeg nu eerlijk, dat is toch ook gewoon een fijnere gedachte? Want ook al zou ik iets aanvinken wat volgens hun jouw privacy moet beschermen, vertrouw ik ze gewoon niet meer. Want er is niemand die ze ook eens echt in de gevangenis gooit of daadwerkelijk aanpakt als ze weer eens de fout in gaan. Betalen een paar miljoen en weer door. Moet jij eens doen.
Het gaat me niet om iets een beetje kunnen draaien. Dit artikel gaat specifiek over de deep research functie :)
Maar goed, al gaat het wel om een 'normaal' model dat in 16GB gpu-geheugen past: dat hebben mijn collega's met hun laptopjes en integrated graphics echt niet.
Geloof mij maat, ik heb de M3 Ultra Studio met 512GB hier voor me liggen met DeepSeek V3 -0324 in het geheugen geladen all the time en zelfs die fantaseert er maar op los. Ik gebruik deze voor persoonlijk onderzoek en juist om pootjes te lappen cq. te sparren met ze. Maar ze vliegen alle kanten op als er ook maar een token verkeerd beschreven wordt. Het is verdomd handig spul, absoluut, maar het is zo dom als de achtereind van een koe.
uitzetten dat je data gebruikt mag worden voor training
Hoe weet je zeker dat OpenAI er alsnog niet aan zit? Je geeft ze toegang tot jouw data maar ze “beloven” er niet aan te zitten. Dan ben je toch wel er goedgelovig over bigtech, wat aan de lopende band wordt beboet omdat ze tóch naar je data hebben gekeken.

Het is gewoon niet te bewijzen dat ze niet aan je data komen. Gebruik e2ee of doe het lokaal.
Dan moet je consequent zijn en geen enkele big tech solution meer gebruiken en alles lokaal draaien. Op een gegeven moment moet je er vanuitgaan dat jouw data jouw data is.
Zeggen openai gebruikt je data zelfs als je een overeenkomst hebt is hetzelfde zeggen als je kan geen Sharepoint opzetten (in SaaS) omdat Microsoft je gegevens dan gebruikt.

Maar roepen geen chatgpt te gebruiken maar tegelijk wel iets anders (niet lokaal) draaien is dan net zo fout.
Nee hoor je hoeft helemaal niet consequent te zijn. Je kan zelf kiezen welke informatie je het internet op slingert. Je kan wat dingen voor werk of vakantie opzoeken op Google op Chatgpt, maar er ook voor kiezen dat ze niet in jouw files en fotos zitten te grasduinen. Je kan b.v. Proton mail gebruiken zodat ze niet in jouw mail zitten mee te kijken. Of ipv iCloud een externe HDD gebruiken voor backup van je Mac. Er is heel veel mogelijk, maar het kost wat meer energie.
Je zegt het exact zelf, ofwel doe je alles lokaal ofwel niet. Dat is toch per definitie consequent zijn? Ik zeg zeker niet dat het niet kan, dat kan perfect! Tegen een bepaalde prijs (tijd/moeite) kan je daar zover in gaan als jezelf wilt. En hoeveel % zou dat doen? Gemakzucht boven privacy....

Maar de meeste OpenAI-bashers die zeggen dat OpenAI je data steelt zullen aan de andere kant vast wel emaildiensten afnemen of andere cloud oplossingen. Trek dit door naar ondernemingen, als je dan een IT Manager hebt met deze attitude dan heb je geen werkbare situatie gezien je als (grote) onderneming nu eenmaal afhankelijk bent van deze diensten. Want dat is dezelfde soort overeenkomst. Jij gebruikt onze dienst (OpenAI of Sharepoint) wij gebruiken je data niet. Als je dan de big-tech is evil kaart trekt ben je imo onzinnig bezig.

[Reactie gewijzigd door Zorg op 13 mei 2025 22:57]

Dit is correct, Je kan prima een online AI model gebruiken. Is een beetje beren op de weg zien naar mijn idee.

Uiteraard als je een free model kiest is het een ander verhaal, zelfde geld voor welke andere AI source dan ook.
Bij ChatGPT kun je toch standaard uitzetten dat je data gebruikt mag worden voor training? Bij mijn betaalde account in ieder geval wel.
Als je dat gelooft natuurlijk. Grote bedrijven hebben al vaker bewezen het niet zo nauw te nemen met wat ze beloven.
Ik ga een feestje vieren het moment dat bij mijn werkgever Copilot dit kan (of iets soortgelijks). Met de enorme puinhoop die ze bij Sharepoint een zoekfunctie noemen, zou het echt een gigantische verbetering zijn als een LLM kan zorgen ervoor dat ik kan vinden wat ik nodig heb op ons intranet.
Dus als ik het goed begrijp werk jij bij een bedrijf die zijn documenten stalt in Sharepoint (Microsoft) welke een ongelofelijke fucked up zoekfunctie heeft om te struinen in documenten zodat OpenAI (met de miljarden van Microsoft) dit probleem kan oplossen? En er was geen developer te vinden die gewoon even de zoekfunctie in Sharepoint deed fatsoeneren? Anno 2025? 50 jaar na de MITS Altair 8800 welke toen al wellicht kon zoeken in documenten lol.

En we accepteren het maar allemaal. Dat we 50 jaar later nog niet eens fatsoenlijk in documenten kunnen zoeken, maar wel hersenchips in mensenbreinen kunnen planten. Het gaat helemaal niet om het zoeken. Het gaat om de info in die documenten, zie je dat niet?
Ik moet het gebruiken. Het zal mij echt aan mijn anus oxideren hoe ze het bruikbaar maken, of dat een LLM is of op een andere manier een fatsoenlijke zoekfunctie implementeren. Zolang ik maar data kan vinden die ik nodig heb.
Snap ik kerel, maar ook wel eens nagedacht over de data die erin staat? Van eventueel mensen die niet eens weten dat er lekker gegrasduint wordt in hun gegevens? Want ik begrijp jou helemaal hoor, want dat komt voort uit frustraties en de makkelijk toegereikte halleluja oplossing die je aangeboden wordt. Maar het is gewoon van de zotte dat een simpele zoek command niet eens werkt in een so called database tool als bijv. Sharepoint. Dat is wel zoiets basics sinds het bestaan van de PC.
Nou ja, ik neem aan dat de LLMs welk juridisch afgedekt zijn dat ze niet data mogen delen verder. Of ze dat technisch ook niet doen, tja, zoveel andere dingen draaien ook in de cloud.

En ik ben het 100% met je eens dat het ronduit triest is hoe slecht Sharepoint is in het vindbaar maken van informatie, we hebben het niet over een kleine startup die hun eerste database heeft gemaakt. Maar zoals ik schreef: Ik wil het gewoon kunnen gebruiken, hoe ze het oplossen is niet mijn probleem.
Tijd dus om weg te gaan bij SharePoint ;-)

Maar op zich - een AI en vector database gebruiken lijkt me best een goede oplossing. Van SharePoint weg gaan ook, trouwens, los van search!
Copilot Search gaat precies dat doen. Soort zoekmachine gekoppeld aan copilot (valt ook binnen de copilot interface). Roadmap ID 490778.
Bij elk bedrijf waar ik de afgelopen jaren over de vloer ben gekomen (als security adviseur, klant, auditor of wat dan ook), is er 1 ding wat ze gemeen hebben: documentatie is niet op orde. Koppel al je docs aan een LLM (het liefst een lokaal draaiende LLM) en je kunt enorm veel automatiseren. Ik heb dit inmiddels bij drie enterprises laten bouwen en dit werkt zeer, zeer goed. Van beleidsfuncties tot aan first line IT wat geautomatiseerd is geworden en waarbij de focus ligt op QA. Men heeft nog niet door hoe effectief dit kan zijn met de nodige guardrails.

Maar… lokaal. Een Amerikaans bedrijf vertrouw ik niet, ondanks dat ik toevallig wat centen in OpenAI heb zitten als investeerder.
Ik ben wel benieuwd hoe jij een lokaal LLM kan voorzien dat qua prijs kan concurreren met de snelheid van ChatGPT.
Hoezo, hebbie haast dan? Waar komt al dat gehaaste nou ineens vandaan? Vroeger deden we dat met onze eigen ogen op onze eigen tempo en er was niemand die er naar kraaide. Maar nu ineens hebben we haast. Man, zet een offline model op met Ollama/LM Studio, laadt die frikandel je documenten doorspitten en in de tussentijd kan jij lekker je drol draaien op de plee. Das pas multifunctioneel. Of niet?
Laat je gerust verrassen door de open source modellen die inmiddels beschikbaar zijn. Bij chats merk je dat het wat langzamer is dan cloud LLM’s, maar voor andere automatisering is het minimaal een factor 100 sneller dan zo’n ouderwets mens wat maar 8 uur werkt en 3 uur effectief is ;)

En sowieso, waarom moet snelheid een kritieke factor zijn? Denk je dat het alleen maar om chats gaat?
Omdat eindgebruikers geen geduld hebben op dat vlak.
Hier wordt er al geklaagd als een planning van 100 orders doorsturen een minuut duurt.
Dan heb jij dus nog nooit modellen lokaal gedraaid op een goedkoop consumenten dingetje. Zelfs op een Jetson gaan die modellen echt snel.
Zoiets is wel redelijk kostbaar om lokaal te draaien denk ik? Hoe groot moet zo’n lokaal model zijn om te goed / bruikbaar te functioneren?
Tenzij snelheid belangrijk is kan je een model als Llama 3.2 3B op een vrij standaard laptopje al draaien. Denk aan een i5 en 16GB aan werkgeheugen, het zal niet rap zijn, maar dit is voldoende mocht je enkel de LLM eenmalig of met enig regelmaat over de documenten willen draaien.

Mocht je betere resultaten willen dan zou Llama 3.2 11B ook al prima kunnen draaien op een iets zwaardere laptop met 32GB aan werkgeheugen.

[Reactie gewijzigd door Omega op 13 mei 2025 15:58]

... en je hoeft niet alle data erin te gooien, alleen een vektor database te hebben. Zo hebben we het in Nextcloud ingebouwd. De vektor database staat op zich los van de LLM, dus je kunt zelfs kiezen voor een LLM-as-a-Service van bijv. IONOS en dan lokaal een vektor database draaien met de inhoud van je documenten in Nextcloud. En dan de Assistant vragen om een samenvatting van iets te maken en te mailen naar een contact persoon ofzo ;-)
Draait gewoon op de cpu dus? Niet tergend langzaam?
in openAI is wel erg knap, of bedoel je indirect dus voor heel klein deel in Microsoft?
Sjo, heb je aandelen in een niet beursgenoteerd bedrijf?
Is perfect mogelijk om aandelen te hebben in een niet beursgenoteerd bedrijf, private equity is een ding
Zucht, trappen mensen hier echt in? Waarom wil je dat nu doen? Waarom moet een AI nu weer in documenten zitten snuffelen?
Voor een project, zou het handig kunnen zijn.
Verder kan je toestemming geven aan bepaalde mappen, dus als je het een beetje organiseert, zou het best handig kunnen zijn voor mensen de Onedrive gebruiken.
You’ll then be prompted to sign in, authorize the ChatGPT connector, and select the folders ChatGPT can access

[Reactie gewijzigd door Christoxz op 13 mei 2025 15:39]

Zucht, de AI snuffelt niet in je documenten. Dat is niet hoe het werkt. De AI voert gewoon een zoekopdracht uit op je documenten en snuffelt in de resultaten. Net als bing of sharepoint of wat voor search je ook gebruikt i.c.m. je microsoft (office 365) account. De search engine gebruikt door de AI is gewoon de standaard microsoft search agent.

Je documenten worden niet door de AI een voor een doorgelezen of door chatgpt binnengehengeld. Hij kan gewoon van de bestaande search gebruik maken die de klant zelf ook al gebruikt. En tenzij je dan wel heel brede searches doet, valt het data delen wel mee.

[Reactie gewijzigd door bzuidgeest op 13 mei 2025 15:34]

Nou, ik ben geen expert maar als je AI echt goed en vlot wil laten werken dat gaat hij toch echt al je documenten indexeren om zijn eigen database te vullen.
Dat kan, met finetunen, maar meestal gebruikt men een vector database. Feitelijk gewoon een full text search, maar dan slimmer ;-)
Ja dat zeg ik. :) Hij gaat echt niet voor iedere opdracht al je documenten doorzoeken.
Maar goed dat de mening van iemand die "geen expert" is de voorkeur heeft. Dat maakt het vast realiteit :)

Copilot en nu dus chatGPT, maakt gewoon gebruik van Microsoft Graph (search) API. In die graph zit ook de zoek index (in ieder geval naamsgewijs) die word gebruikt voor alle andere producten die werken met o365 zoals sharepoint, synigo en de rest. De AI voert gewoon een zoekopdracht uit op die index en verwerkt het resultaat.

Het is een nieuwe interface of de zoekmachine die werkt met "natural language input"

Deze index is overigens al jaren gewoon uitbreidbaar met custom search connectors om data van externe bedrijfsbronnen in 1 grote index te brengen. Welke dat door de verschillende microsoft producten kan worden geraadpleegd.

[Reactie gewijzigd door bzuidgeest op 14 mei 2025 10:21]

Nou ja, daarom zei ik het ook. ;) Wil niet de indruk wekken dat ik er verstand van heb. Ik lees alleen veel over hoe AI (LLMs) alleen kunnen werken met hun eigen database en dat dat geen traditionele database is (vector).

Als Graph vector is dan begrijp ik het nog wel, maar dan lijkt me de functionaliteit wel wat beperkt. Ik heb me wat in zitten lezen op RAG voor in ons bedrijf (inlezen, wederoom ook hierin geen expert). Daar lijkt het er op dat je er alleen alles uithaalt als de LLM zelf data kan bijhouden over de data 'leert'. Met Graph lijkt het met dat ChatGPT het moet doen met wat Graph aanbied en het de data dus iedere keer opnieuw moet interpreteren.

Again, no idea. Still learning myself. ;)
Niet anders dan een wanneer een ai voor je googled. Of kijk naar hoe model context protocol het doet. Dat is hoe AI naast lezen van informatie ook dingen met die informatie kan doen.

Maar het is niets ingewikkelder dan dat je een goed gedocumenteerde API aanbied aan de AI. De AI leest de api docu en bepaald dan uit jou vraag of een tool nuttig is en hoe hij de parameters moet invullen. Het resultaat word "gelezen".

Dat hoe het met alle AI's werkt. Ze passen hun taal vermogen toe op bestaande dingen. Niets bijzonders. En voor een hoop doeleinden werkt dat prima.

https://modelcontextprotocol.io/examples

Je kan natuurlijk een AI gaan trainen op jou data, maar dat is een andere zaak. Die training is statisch. Je past het uit training resulterende model toe op de informatie in je bedrijf of persoonlijke account, want die veranderd continue. Dus het is handig als de AI de microsoft zoek index kan gebruiken. Dat is min of meer de gewoon semantic search.

[Reactie gewijzigd door bzuidgeest op 14 mei 2025 13:31]

Het valt mij op z'n minst mee dat Microsoft heeft ingesteld dat beheerders dit moeten inschakelen, in plaats van standaard ingeschakeld en zelf handmatig moeten uitschakelen.
Je host al je documenten online bij MS en daar snuffelen ze ook al doorheen ivm zoeken. Dan is dit toch een logische extra stap? Zolang de veiligheid zoals bij het zoeken is geregeld (jouw documenten komen niet bij een ander etc etc)
Eerste wat ik na installatie verwijder, OneDrive.
Waarom wil je dat nu doen
Omdat het bij veel bedrijven en instanties een grote puinhoop is op het gebied van Document Management. En ze hopen dat dit ze gaat helpen om met een korte termijn oplossing hun content te gebruiken zonder die troep te hoeven opruimen. Ligt dus maar net aan je "business case". Als je geen geld hebt of wil investeren, is dit het risico wellicht waard.
trappen mensen hier echt in?
Nee. Ik ken geen grote organisatie die op deze manier naïef is ingestapt op AI. Volgens mij is iedereen super argwanend en wordt er zelfs vrij veel met lokale modellen gewerkt. Mogelijk draait veel alsnog op Azure, maar dan onder andere voorwaarden dan 'hier is ai, veel plezier werknemers'.
Als je vraagt waarom je het wil, is je antwoord iets als "ik wil de AI iets kunnen vragen wat specifiek gaat over mijn documenten". Dat je een groot bedrijf wat erom bekend staat dat het datahongerig is geen toegang wil geven tot jouw persoonlijke data is natuurlijk een ander punt.
download dan een offline model en laat deze lekker erin snuffen
Het is geen zoek indexering dat hij doet. Hoe meer data, hoe meer zinvolle verbanden hij kan leggen. Offline is leuk om te experimenteren, maar compleet zinloos als je er daadwerkelijk wat mee wilt doen. Je kunt nooit op tegen de enorme rekenkracht en datamodellen van openai.
Heb je daar een bron van of zuig je dit gewoon uit je duim?

Wel eens van Exo gehoord?
Laten we hopen dat die "AI" hype gauw eindigt... Overal duwen ze het in en het voegt in de meeste gevallen nauwelijks iets toe buiten bepaalde tijdsbesparingen als je snel wat code moet kloppen (die je daarna grotendeels kwijt bent aan het corrigeren of verbeteren van de boilerplate of niet werkende zaken).
Het is wel klaar nu... Eerst maar eens een echt probleem bedenken eer we er AI inpakken om niet bestaande problemen halfslachtig in elkaar te smurfen.
Kan ik dit ergens binnen MS365 blokkeren dat deze koppelingen mogelijk zijn?
Hoe verhoudt zich dit tot Microsoft CoPilot dat al in de Microsoft omgeving zit. Gaat dat elkaar niet 'bijten', qua concurrentie?
copilot gebruikt openAI modellen... En Microsoft investeert in OpenAI als ik het goed herinner.
Het is gewoon een extra search tool op de index die microsoft toch al aanbied in allerlei zoekbalkjes. Je moet je content nog steeds in microsofts omgeving plaatsen om het nut te laten hebben :)
Zal de enterprise copilot niet vervangen maar ik denk dat het aantal persoonlijke copilot gebruikers erg klein is vergeleken met chatgpt gebruikers. Als nieuwe chatgpt modellen en functies nou sneller naar de persoonlijke copilot kwamen zou ik wel een MS abbo nemen ipv chatgpt, zou wel wat schelen in kosten.
Nog even en ze kunnen stoppen met copilot, of is dat een hele cynische gedachte?
nee hoor, copilot lijkt tot nu toe niet zo een groot succes te zijn. Maar ik verwacht het niet. Copilot gebruikt toch al openAI modellen
Ik heb een maand copilot aangezet in m365 om te testen met een chatgpt abonnement er naast. Vond de toegevoegde waarde van copilot minimaal. Met chatgpt veel betere resultaten. Copilot maakte er heel vaak een potje van.
Dus? Verandert weinig aan waar Microsoft zijn modellen haalt.
Ben benieuwd naar use cases en een vergelijking met Copilot, waarom zou iemand die in een M365 tenant zitten kiezen voor ChatGPT , enige wat ik mij kan voorstellen is een potentiele kosten besparing.

En dan ga ik er gemakshalve vanuit dat de functionaliteit hetzelfde is.
Hmm, je data zit al in CoPilot als je toereikende licentie heeft. Je geeft de AI modellen van een data-magnaat al toegang tot je bedrijfsdata, en nu wilt een ander extern bedrijf dat ook? CoPilot die toegang heeft is in mijn ogen al een grens te ver, laat staan een externe partij.... Maargoed, wie ben ik....
je data zit al in CoPilot als je toereikende licentie heeft.
Kan iemand anders bevestigen of dit klopt? (Bron evt?)
Uiteraard alleen die twee. Het zou toch te zot voor woorden zijn als je je eigen cloudstorage kunt opgeven en die gebruiken. Ik gebruik bijv MEGA, en die valt bijna overal buiten de boot. Het is altijd OneDrive of Google Drive wat de klok slaat :(
Dat mensen het AI blijven noemen toont aan dat dezelfde mensen geen idee hebben wat het is... ;(
Super handig en super gevaarlijk. Het gevaar zal de meeste Tweakers duidelijk zijn, maar de handigheid van een Agent om in data te snuffelen en daar handelingen mee uit te voeren is de volgende stap van de AI revolutie.

Zie het als volgt: Als MBK ondernemer gooi je al je facturen, in- en uitgaand, samen met je bankafschriften etc in een paar mappen (of je pleurt alles in 1 map, maakt niet meer uit) en dan vraag je GTP om je jaarrekening van afgelopen jaar op te stellen, je balans bij te werken en je belastingaangifte klaar te zetten. En ja, zo simpel (voor de eindgebruiker) is het.

Ben je boekhouder of accountant… Dan wordt het serieus tijd om een carrièreswitch te overwegen, want no way dat jij dat als mens nog beter kan.

Op dit item kan niet meer gereageerd worden.