Microsoft mag tot minimaal 2032 OpenAI-modellen blijven gebruiken

Microsoft mag tot minimaal 2032 modellen van OpenAI blijven gebruiken in zijn producten en diensten, zo zeggen beide bedrijven. Microsoft mag gebruik maken van uitkomsten van onderzoek van OpenAI tot 2030 of totdat algemene kunstmatige intelligentie is bereikt.

Of OpenAI algemene kunstmatige intelligentie heeft bereikt, hangt af van de bevindingen van een extern panel van experts, zegt Microsoft. Dat was onder de vorige overeenkomst van OpenAI en Microsoft nog niet. Het gebruik van modellen en diensten van OpenAI hangt niet af van dat punt, dat loopt tot 2032.

OpenAI heeft zichzelf omgevormd naar een Public Benefit Corporation onder controle van een non-profit. Die stap kondigde het bedrijf een half jaar geleden aan en is nu afgerond. Er is nu een OpenAI Foundation en een OpenAI Group PBC.

De OpenAI Foundation heeft controle over OpenAI Group PBC met een aandeel met een waarde van ongeveer 130 miljard dollar, meldt het bedrijf. Dat is ongeveer een kwart van de aandelen. Nog eens 27 procent van de aandelen is in handen van Microsoft.

OpenAI wilde in eerste instantie een volledige for-profit worden, maar wijzigde dat plan in mei. Het bedrijf maakt die overstap zodat het meer geld kan ophalen bij investeerders, zo claimt het bedrijf. Welke delen precies in handen zijn van de Foundation blijft onduidelijk.

Door Arnoud Wokke

Redacteur Tweakers

28-10-2025 • 19:12

18

Reacties (18)

Sorteer op:

Weergave:

Zijn er aanwijzingen dat we op het punt staan om algemene kunstmatige intelligentie te bereiken? Dat idee heb ik niet echt maar ik lees het de laatste tijd wel vaker.

Of is dat om ons aan het lijntje te houden dat men toch écht heel veel vooruitgang boekt met de ontwikkeling van AI..?
Nee, dat gaan we hier niet mee bereiken. Het is en blijft voorspellingen maken op basis van statistiek. Hele complexe statistiek, maar het wordt nooit meer dan dat.

Kan het een mens foppen zodat je niet door hebt dat je met AI te maken hebt? Zeker wel. Dat kan nu al en over 10 jaar zeker veel meer.

Ik denk dat we binnen vijf jaar niets meer kunnen vertrouwen wat je online leest, hoort of ziet.
Ik denk dat we binnen vijf jaar niets meer kunnen vertrouwen wat je online leest, hoort of ziet.
Ik snap niet helemaal welke tegenspraak met wat we nu zien en horen. Ik kijk meestal naar de bron. Betrouwbare bronnen zullen over tien jaar nog steeds bestaan. Wat er op Facebook wordt geschreven of getoond is altijd al dubieus geweest.

Had Wilders in 2017 AI nodig voor een foto waarin D66-leider Pechtold demonstreerde voor de invoering van de Sharia? Had Stalin in 1940 AI nodig om Yezhov van foto's te verwijderen?

We hebben altijd kritisch moeten kijken naar geschreven teksten, geluidsopnames, foto's en videobeelden. AI maakt namaken laagdrempelig en dat is waarschijnlijk een voordeel, omdat we er juist kritischer door gaan kijken.
Maar uiteindelijk welke bronnen zijn betrouwbaar tegen die tijd? Tegen die tijd kunnen de meeste betrouwbare bronnen ook wel door AI geschreven zijn. Misschien Tweakers ook wel. Of het zou mij niets verbazen als bijvoorbeeld Tweakers door AMD, Intel, Nvidia of een andere bedijf is overgenomen en dus hun eigen producten promoot en de concurrentie belemmert. Dus hoeveel betrouwbare bronnen blijven er uiteindelijk over.
Of het zou mij niets verbazen als bijvoorbeeld Tweakers door AMD, Intel, Nvidia of een andere bedijf is overgenomen en dus hun eigen producten promoot en de concurrentie belemmert.
Dat kon tien jaar geleden toch ook gebeuren? De Washington Post is overgenomen door Jeff Bezos (Amazon) en heeft geen AI nodig om een promotievehikel van deze man te zijn.
Dat klopt. Maar ik heb wel het gevoel dat de laatste 3 tot 5 jaar bedrijven veel meer inzetten op WINST maken in plaats van winst maken. Misschien was ik daarvoor meer naïef (of minder op de hoogte) en zag ik het minder. Maar het voelde voor mij gevoel alsof ze vroeger winst wilde maken door klantvriendelijk en beter voor hun personeel te zijn in plaats van iedereen uit uitbuiten en overal besparen. Dus voor mij gevoel is de risico nu gewoon veel groter. Maar misschien komt het ook wel omdat AI nog niet zo ver gevorderd was en bedrijven het dus niet eerder konden gebruiken / misbruiken.
Dat mensen met een vorm van macht (en geld) geregeld een vertekende beeld publiceren, is zo oud als de weg naar Rome.

Dat is het punt ook niet.

Het wordt steeds moeilijker om fictie van de waarheid te onderscheiden, en dat vooral met video beelden.

Je zie nu nog pratende apen en what-have-you, en ik denk over tijd na maten het beter wordt.

Dit echt wordt ingezet voor serieuzere dingen.
Het wordt steeds moeilijker om fictie van de waarheid te onderscheiden, en dat vooral met video beelden.
Je bedoelt: nu ook voor videobeelden.

Vroeger waren er geen foto's. Toen kwamen er foto's en waren die een tijde betrouwbaar, maar die betrouwbaarheid nam af door analoge en later digitale bewerking. Hetzelfde voor video. Door de algemene beschikbaarheid van smartphones hebben we meer videobeelden, maar tegelijkertijd is de betrouwbaarheid afgenomen. Dit is gewoon een stapje in een proces dat zo oud is als de weg naar Rome.
Je zie nu nog pratende apen en what-have-you, en ik denk over tijd na maten het beter wordt.
Vroeger konden alleen geleerdeerden en monniken schrijven. Nu kan iedere aap een serieus uitziende tekst produceren. Of hetgeen hier boven staat 😉


Dit echt wordt ingezet voor serieuzere dingen.

Zoals ik hierboven al duidelijk probeerde te maken: voor serieuze dingen is manipulatie van (bewegende) beelden zo oud als de beelden zelf.vroeger geloofden we alles dat we op televisie zagen of in de krant lazen. Doordat nu iedereen gemanipuleerde of ronduit gegenereerde videos kan maken weten we wel beter!
Het is en blijft voorspellingen maken op basis van statistiek
Onze hersenen werken ook zo. Als wij iets zien vallen voorspellen we op basis van eerdere ervaringen waar het terecht komt
In de basis voor de neuronen ja, maar net zoals je met een paar schroeven bij elkaar geen vliegtuig kan laten ontstaan zal er met alleen de huidige taalmodellen geen AGI ontstaan. Er mist nog een hoop :P
Ja precies, momenteel is het vooral een intelligentiesimulator. Maar de echte vonk mist nog. Je kan er wel wat aan verbeteren zoals die deep thought modellen die eigenlijk gewoon hun eigen output heroverwegen en daardoor veel laaghangend fruit onzin verwijderen. maar echt originele ideeen komen er nog niet uit.
Het grappige is, is dat de wiskunde die gebruikt wordt in de 19e eeuw is ontwikkeld, met als doel patroonvoorspelling. Het is in de basis niet erg ingewikkeld, maar wel het veel (dus achterlijke hoeveelheden ‘draaiers’ met hoe sterk de volgende stap is.
Nou, we zien het wel. Wie had gedacht 20 Jaar geleden dat X met Y bereikt kon worden...
Hele complexe statistiek kun je ook zien als een andere manier om logica uit te drukken. Dus zeggen dat je daar geen slimheid mee kunt bereiken vind ik niet juist.
Welke definitie van "algemene kunstmatige intelligentie" gebruiken zij? Dat is waar het nu om draait.

Want (één van) de definities die door MS en OpenAI gebruikt worden, is het halen van een bepaalde omzet. Als OpenAI met honderd miljard gaat lopen smijten, dan kom je er snel aan. Maar of je daarmee ook een hulpzaam model hebt. Ja, vele mensen zullen er klein geld voor betalen, dus het zal wel iets zinnigs doen. Maar zijn dat ook grote, belangrijke dingen die onze beschaving verder helpen? Daar zit wel een groot verschil in.

Dus bij mij is nu de eerste vraag "volgens welke definitie". Is dat die van de volksmond, waarbij AGI alles kan en alles beter weet dan de gemiddelde mens? Of is dat die van corporate speak, waarbij het gaat om geld, inkomsten en kostenbesparing? Of ergens tussenin? En helaas, het gaat vaak niet om jouw idee ervan.
Punt is dat het enmasse dat door iedereen, en zelfs geautomatiseerd uitgespuwd kan worden. De drempel wordt steeds lager. Waar die in Stalins tijd nog relatief hoog lag, is het nu nog maar 10 seconden werk en bereikt je er miljoenen mensen mee.

Het gaat om de "firehose of falsehood". Welke door AI enorm opgekrikt en meer overtuigend wordt. Hoe ga je die 1% herkennen wanneer 99% complete onzin en beïnvloeding is?


Dit was bedoeld als een reactie op @84hannes

[Reactie gewijzigd door Standeman op 28 oktober 2025 20:55]


Om te kunnen reageren moet je ingelogd zijn