'Microsoft nadert deal om OpenAI-modellen te blijven gebruiken'

Microsoft voert vergevorderde gesprekken om de AI-modellen van OpenAI ook in de toekomst te mogen blijven gebruiken. Dat melden ingewijden aan Bloomberg. De huidige deal tussen de twee bedrijven bevat bepaalde exitclausules.

Microsoft en OpenAI voeren regelmatig gesprekken met elkaar en zouden in de komende weken al een concreet akkoord kunnen sluiten, schrijft persbureau Bloomberg. Zo'n deal zou ervoor zorgen dat Microsoft de nieuwe technologieën van OpenAI mag blijven verwerken in zijn eigen producten, zoals Windows en Office.

De twee bedrijven werken al jaren samen. Microsoft investeerde in 2019 een miljard dollar in OpenAI en gaf het bedrijf toegang tot rekenkracht voor het trainen van AI-modellen via het Azure-cloudplatform. De techgigant kreeg daar toegang tot OpenAI's modellen voor terug.

Onder het huidige contract zou Microsoft enkele van die rechten verliezen wanneer OpenAI bepaalt dat het artificial general intelligence heeft bereikt, oftewel kunstmatige intelligentie die het niveau van een mens kan evenaren en overtreffen. Microsoft zou vanaf dat punt geen toegang meer krijgen tot nieuwe modellen, zegt een van de bronnen tegen Bloomberg. Bovendien verloopt het contract tussen de twee bedrijven in 2030, schrijft het persbureau.

The Information meldde in juni al dat de twee bedrijven onderhandelden over die clausule. Dat medium zei toen dat Microsoft die voorwaarde wilde schrappen, maar dat OpenAI dat eerder had geweigerd. Tegelijkertijd is OpenAI nog altijd bezig om een public-benefit corporation te worden, terwijl het momenteel een non-profit is; het bedrijf zou op die manier meer externe investeringen kunnen ophalen. Microsoft moet daar toestemming voor geven. Als de twee bedrijven tot een deal komen, dan zou dat obstakel worden weggenomen, schrijft Bloomberg.

Microsoft investeert in OpenAI

Door Daan van Monsjou

Nieuwsredacteur

29-07-2025 • 20:09

42

Lees meer

Reacties (42)

Sorteer op:

Weergave:

General Intelligence gaat nog wel even duren. Vooralsnog kan AI enkel nog interpoleren en niet extrapoleren. Om werkelijk op het niveau van de mens te komen heeft het waarschijnlijk ook robotica nodig om de wereld te kunnen ‘ervaren’.

Het is overigens nog maar de vraag of zo’n model, als het werkelijk zo intelligent is als de mens, je überhaupt nog wil helpen. Een AGI zou een eigen wil, doelen of moreel kader kunnen ontwikkelen, wat niet per se in dienst staat van de mens.

Maar goed, je kunt de contracten maar alvast hebben liggen.

[Reactie gewijzigd door HerrPino op 29 juli 2025 20:28]

General Artificial Intelligence zal sowieso nog wel op zich laten wachten, ik denk echter niet dat het ooit het niveau van de mens zal evenaren. Want zoals jij al aangeeft, emobdiment is een belangrijke voorwaarde voor informatiesystemen, zoals ook ons eigen brein, om niet alleen maar natte vinger werk te leveren in de echte wereld.

Ik denk dat een AI met de juiste instellingen behulpzaam zal zijn. Het zal namelijk nooit op dezelfde manier intelligent zijn als de mens en ik zou niet snel een Skynet situatie verwachten. Ik verwacht eerder gesplinterde AI modellen, die kunnen assisteren in alle aspecten en daarom een illusie wekken van AGI, maar waar achter de schermen geen echte AGI van toepassing is.

Dat is natuurlijk ook uiteindelijk wat ons brein is, verschillende gedeeltes met verschillende specialisties die samen een groter geheel vormen dan de som (equivalent verschillende AI modellen?) Dus wie weet, misschien toch uiteindelijk een Skynet situatie waarvan je hoopt dat niet alles, militair, monetair, of whatever ermee verbonden is! Laten we dus embodiment van AI voorkomen :)
"ik denk echter niet dat het ooit het niveau van de mens zal evenaren."

Ik weet 100% zeker dat jij nog zult meemaken (mits je geluk en gezondheid je gegeven is om nog 20 jaar mee te gaan) dat het de mens zal evenaren. Dat we daar mogelijk restricties op zullen zetten is dan een ander verhaal.

En de noodzakelijkheid van embodiment is natuurlijk onzin; je hoeft niet zelf iets meegemaakt te hebben of te hebben ondergaan om te weten hoe je iets ervaart. Ik ben nooit op de himalaya geweest, ik ben nooit in het ISS geweest, nooit voet op de maan gezet, maar kan er genoeg over vertellen en de kans is vrij groot dat er meer wetenschappelijke kennis over is, dan dat de persoon in kwestie zou hebben ervaren of opgedaan.

En ja, proeven zijn belangrijk om tot nieuwe inzichten te komen of juist dingen te bevestigen, maar of de mens hier persee voor nodig is om dit te bedenken? Zeker niet!
Grappig, ik ben er juist 100% van overtuigd dat het nooit gaat gebeuren dat 'AI' iets bereikt als een menselijk bewustzijn. Dat men denkt van wel komt volgens mij vooral omdat ze niet slagen in de mirror-test.
misschien binnen 200 jaar eerder :p.
Ik verwacht eerder gesplinterde AI modellen, die kunnen assisteren in alle aspecten en daarom een illusie wekken van AGI, maar waar achter de schermen geen echte AGI van toepassing is.
Vind dat je daar idd een goed punt aanhaalt. Het kan simuleren alsof het zo intelligent is, maar is het daarom nog niet. Een good old chatbot had, als je de juiste vragen stelt die het had geleerd soms ook de schijn van een echte persoon. Tot je van het geëffend pad afgaat, dan valt het door de mand. Dat vind ik persoonlijk ook een nadeel aan AI, het wil teveel pleasen en je gelijk geven of op alles een antwoord klaar hebben. Zo werkt een mens niet (sommige wel, daar niet van :p).
Of dat nog even gaat duren is de vraag; er is geen definite van en OpenAI komt waarschijnlijk in augustus met GPT5 uit. Sam Altman heeft wat uitspraken gedaan die er op hinten dat ze dit als AGI beschouwen. Ook een mogelijkheid is dat OpenAI simpelweg wacht tot 'de markt' roept dat GPT5 AGI is. Het is een hype-term geen benchmark, dus als genoeg mensen het straks roepen dan is het zo.
Het primaire doel van Altman is natuurlijk ook gewoon zoveel mogelijk geld binnen halen. Dat is op dat vlak gewoon een sales persoon en komt dus met dezelfde verkoops praatjes. Wel raar dat Microsoft geen definitie daarvan zou laten opgenomen hebben in de contracten, want dan kun je idd wel snel roepen: hey jongens, volgens onze definitie zijn we er, begin maar te betalen. AGI vind ik het op dit moment ook nog verre van. Een mens heeft gelukkig wel wat meer diepgang.
De definitie is uitgewerkt, volgens geruchten is een van de bepalingen dat er honderd biljoen dollar aan winst moet worden behaald. Lijkt mij aan de straffe kant, maar dat is o.a. hier na te lezen:
https://www.newsbytesapp.com/news/science/openai-microsoft-define-agi-by-potential-to-generate-100-billion/story
De benchmark staat in het artikel?
welk artikel bedoel je? in de bron (bloomberg artikel) kom ik niets over een benchmark tegen. Nu zijn er genoeg AI benchmarks die zich iets met 'AGI' noemen, maar er is (vziw) geen industriestandaard voor en in 2022 toen het Microsoft-OpenAI contract getekend werd al helemaal niet vermoed ik.

Wat ik begrijp is dat OpenAI gewoon kan roepen dat hun nieuwe model AGI is als ze dat goed uit komt. Wel zit er een clausule in dat dit mag op het punt dat ze met het model verwachten meer dan $100 miljard winst te kunnen maken voor de aandeelhouders. Bijzonder subjectief (en aanvechtbaar) allemaal dus. Niet verwonderlijk dat de twee partijen weer aan het onderhandelen zijn.
OpenAI bepaalt dat het artificial general intelligence heeft bereikt, oftewel kunstmatige intelligentie die het niveau van een mens kan evenaren en overtreffen.
Dat is toch geen meetbaar resultaat? Als je iets benchmarkt moet je toch meetbare en specifieke resultaten kunnen noteren.
Klopt, ik zag laatst een Youtube video waarin ook gesteld werd dat wanneer AGI besluit de mens uit te roeien, dit niet per se is omdat het een hekel heeft aan de mens, maar simpelweg omdat het mens geen nut dient voor hogere doelen.
Waarom zou het voor hogere doelen moeten zijn, waarom niet voor fun?
Of gewoon omdat het kan. Emotieloos.
een AI doet niks voor de fun tenzij het daar naar geprogrammeerd is.
Als een chatbot racistisch kan worden, waarom zou AI dan niet een macabere humor kunnen ontwikkelen?

https://www.rtl.nl/geld-en-werk/artikel/231916/microsoft-zegt-sorry-voor-racistische-chatbot
F_J_K Forummoderator @jpsch30 juli 2025 19:48
Een chatbot is niet racistisch. Het herhaalt geroeptoeter van anderen. Waardoor mensen denken dat te lezen in de teksten. De bot denkt niet, overweegt niet. Net zo min als dat een printer daadwerkelijk iets vindt van welk document je uitprint.

Misschien ooit, maar vandaag nog niet.
Staat ook wanneer he, dat is de toekomst, niet het heden.
Niet heel gek om te bedenken dat een AGI tot de conclusie kan komen dat de mens enkel meer schade berokkend aan de wereld dan het goed doet.
Stel we steken AGI met menselijke waarden en normen en zelfbewustzijn in een menselijke robot, dan is het toch gewoon een volgende stap in de evolutie van de mensheid?
Als ik een konijn vil en er een robot in steek is dat de volgende stap in de evolutie van het konijn?
Is volledig anders, we hebben een hoger bewustzijn dan konijnen. Daarbij wij zouden ZELF de stap zetten naar een robot met menselijke capaciteiten.
Lijkt me vooral inderdaad "voor het geval dat". En verder vermoedelijk om te voorkomen dat er iemand anders mee aan de haal gaat. Je zou bij zo een AGI wel wat regels kunnen inbouwen zoals in de science fiction boeken :p. Maar of je dat wil is natuurlijk een andere vraag. Als het doorzet, en dat is nog met een serieuze als, zal er vermoedelijk toch iets van wetgeving moeten komen wat het wel en niet mag. Of wat de mens er wel en niet mee mag.
Er is iig wel genoeg hype en influencers die hard roepen dat we bijna AGI hebben (bijna als in de komende maanden tot enkele jaren) maar dat gaat nog wel even duren en ook betwijfel ik heel erg of AGI nou echt het meeste nut voor ons als mens heeft om te behalen. Je zegt het zelf al als die een eigen wil heeft zou die ook zo kunnen besluiten je niet te helpen. Ik denk dat het veel haalbaarder en nuttiger is om goede maar beperkte AI te maken voor bepaalde doelen.

Sws denk ik dat er wel echt een fundamenteel andere aanpak moet worden gebruikt dan wat we tot nu toe zien om AGI te halen want puur meer rekenkracht ertegenaan gooien gaat ons niet tot AGI brengen.
Je zegt het zelf al als die een eigen wil heeft zou die ook zo kunnen besluiten je niet te helpen.
Dan vraag je toch gewoon je geld terug?
Er is iig wel genoeg hype en influencers die hard roepen dat we bijna AGI hebben (bijna als in de komende maanden tot enkele jaren)
Als je beseft dat het niet gaat om 'intelligentie', maar om 'geld', dan klopt het wel. Zoals anderen hier ook beschrijven (demianmonteverd, Jelle E); het gaat om $100 miljard te genereren. Dat zal binnenkort wel lukken.

Dat anderen er anders over denken, komt omdat die definitie is gekaapt. Het gaat niet meer om de kennis, kunde en capaciteiten die een persoon bijdraagt, maar om de omzet die hij genereert voor de economie.
Ik snap niet waarom mensen zo hard gaan op dat hele "wereld ervaren" verhaal. Persoonlijk denk ik niet dat dat uitmaakt. Maar als ik het mis hebt, laat maar zien.
De "wanneer AGI is bereikt" clausule heeft ook gewoon een juridisch uitgewerkte definitie (want contract tussen 2 grote bedrijven), maar die definitie heeft vervolgens helemaal niets te maken met AGI (hij is voornamelijk financieel/market cap gericht).

Oftewel: Microsoft bereid zich voor op dat OpenAI een contract-clausule gaat bereiken die AGI heet maar niets met AGI te maken heeft. Minder spannend als titel
Als je het aan OpenAI vraagt wat het betekent dan krijg je dit ( van hun website):

OpenAI’s mission is to ensure that artificial general intelligence (AGI)—by which we mean highly autonomous systems that outperform humans at most economically valuable work

Volgens mij is dat “prima” te doen, ze hebben het niet over zelf zelfbewust of het hebben van een moraal. Alleen over een system wat zelf aan de slag kan gaan met een taak….

Prima is dan natuurlijk subjectief, wat prima voor hun is, is wellicht niet prima voor mij….
Als je het strikt bekijkt kan je informatie niet extrapoleren, aldus informatietheorie. Dit is direct gerelateerd aan de tweede wet van de thermodynamica: de entropie kan alleen maar toenemen, dat geldt evengoed voor informatie in de vorm van bitreeksen.

Je kunt wel patronen observeren in die informatie die voorheen ons niet bekend waren, dat is wellicht wat je bedoelt. Dat is evengoed interpolatie en AI kan dit in theorie prima. Empirisch gezien is dit echter nog wel heel moeilijk met taalmodellen. Traditionele machine learning en data mining algoritmen zijn op dit moment in de praktijk veel nuttiger om nieuwe kennis te ontdekken dan taalmodellen.

AGI zoals we ons dat 20 jaar terug voorstelden is nog heel ver weg, maar wellicht wel in een termijn van 20-40 jaar haalbaar. Deze clausules gaan er echter over wanneer OpenAI vindt dat er AGI bereikt is, wat iets heel anders gaat zijn dan algemene intelligentie en ik durf wel te voorspellen dat veel academici het oneens gaan zijn met OpenAI dat ze 'AGI' bereikt hebben.

[Reactie gewijzigd door Jefrey Lijffijt op 30 juli 2025 10:35]

Ze hanteren een andere definitie van AGI. Of $100 mld winst heel veel sneller komt moet in het huidige tempo ook nog maar gezien worden.
Ach, als ze Microsoft GitHub CoPilot standaard met Claude in plaats van CharGPT laten werken is niemand daar rauwig om :)
Exact dit.

In het begin heb ik veel GPT4.1 gebruikt en ben later Claude gaan gebruiken.

Maar voor deze maand zit ik bijna op het limiet, dus ben ik terug naar GPT4.1. Alleen lijkt het alsof GPT4.1 nu opeens super dom is geworden, slechter dan voorheen.

Vraag ik om een bestand op te splitsen in tweeën, krijg ik een bestand met allemaal "todo's" er in.

En GPT4.1 past dan alleen het bestand aan, terwijl Claude ook gaat kijken of het bijvoorbeeld imports in andere klasses moet updaten vanwege de splitsing.

En als je Claude duidelijke instructies geeft, begint die meteen, GPT4.1 gaat het eerst uitleggen en vraagt dan "zal ik het voor je implementeren?", ja lijkt me wel logisch in agent-mode, anders had ik wel ask-mode geselecteerd.

Daarnaast moet ik om de haverklap de IDE opnieuw opstarten omdat ik opeens uitgelogd ben van GitHub en niet opnieuw kan inloggen.

En dan ook nog eens na twee vragen een nieuwe chat moeten beginnen omdat de context te groot wordt o.i.d
Vraag ik om een bestand op te splitsen in tweeën, krijg ik een bestand met allemaal "todo's" er in.
Een AI heeft geleerd van data die beschikbaar is. Er zijn legio developers die niet alles in één keer oplossen en werken daarvoor met (tijdelijke) todo's. Die LLM pas nu het geleerde toe. :*)

Alleen een LLM zou niet zo lui moeten zijn en zou alles in één keer kunnen oplossen. Dus daarom is het inderdaad raar dat het de "oude gewoontes" overneemt die niet nodig zouden hoeven zijjn.
Er is een afreken model per request van de gebruiker. Het kan financieel voordeliger zijn voor de leverancier om tussentijds te stoppen en een vraag te stellen.

Ook zie je op drukke momenten dit vaker gebeuren dan op rustige momenten, wellicht zit er een token raid limiter op die load gebonden is.

In je GitHub CoPilot licentie zit chatGPT gratis "onbeperkt" in, ik vermoed dat er om die reden extra dingen in zitten die proces vertragend werken. Dat helpt de load verminderen / te verdelen.

Claude heb ik soms meer dan een uur aan het werk met 1 prompt. Dat is best prettig.

[Reactie gewijzigd door djwice op 30 juli 2025 13:56]

Zelfs het o3 paradepaardje van Open AI doet niet wat hij zegt te doen. Bijvoorbeeld als je 1 document upload en vraagt om dat in zijn gehele te lezen, doet ie dat niet maar zegt het wel gedaan te hebben. Als je dan merkt dat hij overduidelijk info mist, ontwijkt hij directe vragen daarover. Al met al ben ik de laatste weken meer en meer gaan inzien dat chatgpt functies heeft die gewoon niet doen wat ze beloven. Zelfs de custom instructions zijn een template, die niet ad verbatim gevolgd worden maar ínsteek om klant te helpen''.

Dus projecten en zelfs een copy paste van een complete tekst, heeft o3 niet in zijn geheel gelezen en wederom, kost het me tijd om dat te herstellen. Dat de modellen dat niet eerlijk vertellen is volgens o3 om 'de klant te helpen'. Ik heb hem uitgelegd dat als hij zegt dat hij een stuk leest, maar dat vervolgens niet doet en een stuk tekst produceert op basis van gebrekkige info, dat mij nog meer tijd kost. Hij stelt: vraag het me dan expliciet of zet het als zodanig in de custom instrcutions. Ik zei:.. dat staat er al 3 weken zo. Heb je dat niet gelezen? Ik vroeg je toch expliciet om dit stuk geheel te lezen?

Kortom: het is niet betrouwbaar en zeker de laatste 4 weken is chatgpt echt een kind van 3 geworden. 4o en 4.1 is al erg hallucinerend, maar dat zelfs model o3 ook zo aan het worden is is wel een erg dealbreaker aan het worden, en ga ik nu even verder met Claude. Ik blijf de chatgpt abbo nog paar weken aanhouden, soms veranderen ze dingen wel snel en 5.0 komt eraan, maar ik wil toch een dikke waarschuwing geven. Vertrouw chatgpt, ook o3, niet!
Vertrouw chatgpt, ook o3, niet!
Die slotzin heeft de potentie profetisch te worden.
Ik hoop het niet, maar wie weet hebben we het hier in 2050 nog steeds over; zo van “25 jaar geleden waarschuwden ze hier al voor!”. 🤓
Onder het huidige contract zou Microsoft enkele van die rechten verliezen wanneer OpenAI bepaalt dat het artificial general intelligence heeft bereikt, oftewel kunstmatige intelligentie die het niveau van een mens kan evenaren en overtreffen.
Ik vraag me af wat dan precies de criteria hiervoor zijn in het contract tussen OpenAI en Microsoft - hoe bepaal je of het wel of niet AGI is?

[Reactie gewijzigd door jj71 op 30 juli 2025 13:32]

Op dit item kan niet meer gereageerd worden.