Raad van bestuur OpenAI heeft ceo Sam Altman ontslagen

De raad van bestuur van OpenAI heeft ceo Sam Altman ontslagen. Volgens de raad was Altman niet consistent openhartig genoeg geweest in zijn communicatie met de raad. Mira Murati, de chief technology officer van OpenAI, wordt de tijdelijke ceo.

OpenAI heeft het nieuws bekendgemaakt via een blogpost. Daarin staat te lezen dat de beslissing is genomen na een "weloverwogen beoordelingsproces". De bestuursraad heeft naar eigen zeggen geen vertrouwen meer in Sam Altman om OpenAI te kunnen leiden.

OpenAI liet ook weten dat Greg Brockman, medeoprichter en tot voor kort president van OpenAI, uit de raad van bestuur wordt verwijderd, maar wel nog deel blijft uitmaken van het bedrijf. Brockman deelde later via X echter dat hij inmiddels ook ontslag heeft genomen. Altman heeft ook via X gereageerd op het nieuws. De man stelt dat hij zijn tijd bij OpenAI vernieuwend vond en dat hij later met meer informatie naar buiten zal komen.

OpenAI is een Amerikaans onderzoeksinstituut dat gespecialiseerd is in kunstmatige intelligentie en taalmodellen. Het is in 2015 opgericht door Sam Altman, Elon Musk, Greg Brockman en enkele andere techondernemers. OpenAI was aanvankelijk een non-profitorganisatie met als doel fundamenteel onderzoek te doen naar kunstmatige intelligentie, zonder de noodzaak van een commercieel doel. Daar kwam in 2019 verandering in. Toen werd OpenAI een bedrijf met een winstoogmerk.

In 2019 investeerde Microsoft 1 miljard dollar in het AI-bedrijf, gevolgd door een tweede investering van 10 miljard dollar in 2023. OpenAI staat bekend als het bedrijf achter de AI-chatbot ChatGPT, AI-beeldgenerator Dall-E en spraakherkenningssoftware Whisper.

Door Jay Stout

Redacteur

18-11-2023 • 09:13

92

Lees meer

Reacties (92)

Sorteer op:

Weergave:

Wel opvallend dat alle originele oprichters er nu uitgegooid zijn door de Raad.
Wel opvallend dat alle originele oprichters er nu uitgegooid zijn door de Raad.
Nope!
OpenAI was founded in 2015 by Ilya Sutskever, Greg Brockman, Trevor Blackwell, Vicki Cheung, Andrej Karpathy, Durk Kingma, Jessica Livingston, John Schulman, Pamela Vagata, and Wojciech Zaremba, with Sam Altman and Elon Musk serving as the initial board members.
Ilya Sutskever is de chief scientist bij OpenAI en deel van de board of directors en deel van de oprichters.
OpenAI's board of directors consists of OpenAI chief scientist Ilya Sutskever, independent directors Quora CEO Adam D'Angelo, technology entrepreneur Tasha McCauley, and Georgetown Center for Security and Emerging Technology's Helen Toner.
Ilya Sutskever lijkt achter de move te zitten om Sam Altman te ontslaan als CEO. Gezien wat Ilya Sutskever in juli dit jaar poste: https://openai.com/blog/introducing-superalignment

Lijkt me dat wat het plan was (20% van de compute van de komende 4 jaar daaraan besteden) mogelijk werd tegengewerkt door de CEO. Wat ik lees over Sam Altman is het een tech optimist en wat ik in de link lees is dat alles behalve tech optimistisch, zeker niet als je daar de komende 4 jaar 20% van je resources aan wil besteden...
Ja, inderdaad. Wellicht dat de oprichters meer experimenteren en uitproberen, het is immers ooit daarvoor opgericht, dan nu nuttig is in de commerciële fase van het bedrijf. Als commercieel bedrijf zijn de verantwoordelijkheden anders dan als onderzoeker.

Als onderzoeker kun je dingen binnen kamers testen en dan er van leren en weggooien, in een commercieel bedrijf moet je vaker vooraf en gedurende zo'n fase al verantwoorden waarom je dat doet, en meer mensen op de hoogte houden, zoals de RvB als je onderzoek ethische zaken kan raken.
Als ik het goed begrijp is het juist het tegenovergestelde; openAI is ooit opgericht om de mensheid aan AGI te helpen (op een open manier). Sam Altman heeft het bedrijf de commerciële kant op gepusht en te hard ingezet op LLM's, wat tegen de originele visie was.
Maar je verwacht toch niet dat een raad van bestuur bezwaar gaat maken als een bedrijf meer geld wil gaan verdienen en daar stappen voor zet?
De reacties en linkjes in de threads van hackernews geven wat hints dat de chief scientist de rest van de board (minus de voorzitter, die ontslag heeft genomen) aan zijn zijde heeft gekregen. OpenAI is van origine een non-profit en het doel was nooit om veel geld te verdienen.

Persoonlijk vind ik het wel een mooie zet (als bovenstaande klopt); openAI was jaren lang baanbrekend in verschillende richtingen van AI. Als ze een nieuwe technologie uit brachten zat daar vaak een gedetailleerde paper, code, getrainde modellen etc bij. Nu is hun onderzoek nog wel baan brekend, maar dan alleen voor LLM's en alleen voor hun (en Microsoft). Misschien brengt deze actie ze terug richting de originele koers.
Een goed gelinkt artikel is het volgende omdat het alle hoofdrolspelers benoemt (al mis ik nog de oude CTO / interim CEO): https://sfstandard.com/20...man-firing-board-members/

Specifiek bij Helen Toner staat deze essay van haar gelinkt: https://www.foreignaffair...nas-ai-prowess-regulation

Het is een read van ongeveer een kwartier (reader mode werkt) maar het is het lezen waard. Vergeet ook niet: dit verhaal (van afgelopen zomer) gaat regelrecht tegen Altman's visie in. Dus die van de (voormalig) CEO. Dan kon je al zien dat het rommelde.

Wat betreft dat OpenAI geen non-profit meer is (aldus @Gropah). Het is een complexe structuur waarbij voor zover ik het begrijp (plaatje staat gelinkt in artikel) de for-profit onder de non-profit valt.

Ik heb Altman bij Lex Friedman's podcast mogen beluisteren en ik was niet onder de indruk wat betreft zijn ethische inslag. Maar dat is achteraf makkelijk praten. Als ik dat artikel van Helen Toner zorgvuldiger had gelezen, dan was de huidige context me sneller duidelijk geworden.

[Reactie gewijzigd door Jerie op 22 juli 2024 19:23]

Ik ben het met je eens dat het mooi zou zijn als er veel open onderzoek word gedaan naar AI. En ja, het klopt dat OpenAI ooit als non-profit begon. Maar dat zijn ze nu al tijden niet meer (sinds 2018 volgens mij, dus een jaar of 5), dus ik kan mij zomaar voorstellen dat de raad van bestuur er wel op aan wil sturen dat er een bepaalde winst word gedraaid.
Dat is onjuist. De non-profit controleert de for-profit. De for-profit heeft ook een heel duidelijke charter die zegt dat de investeringen in de for-profit als donaties gezien moeten worden.

https://www.npr.org/2023/...to%20business%20customers.
Op zich niet, behalve als de gekozen richting niet het vertrouwen heeft.

Het is niet gezegd dat Altman's strategie goed zou werken voor de langere termijn. De echte kosten van een GPT-product zijn hoog; het kan zijn dat er hogere abonnementsprijzen nodig zijn om uit de kosten te komen. Het trainen van GPT4 was al een bizarre operatie qua schaal, en nog grotere modellen zouden nog veel meer trainingscapaciteit vereisen.

Ook is de output vaak problematisch. Daar komt snel reputatieschade uit, en/of een hoop handmatig werk om te filteren en corrigeren.

Bovendien zijn er juridische onzekerheden. Als de EU en andere plekken besluiten dat publieke scraping van auteursrechtelijk beschermd werk en persoonsgegevens niet had gemogen voor het maken van een LLM, dan kunnen er boetes of verboden volgen. Dan kan er alleen nog getraind worden met materiaal dat zorgvuldig is gemaakt of gekocht, wat het hele spelletje een stuk duurder zou maken.

Ten slotte zitten de huidige LLM's heel ver af van algemene intelligentie, wat het uiteindelijke doel is van het bedrijf. De huidige stijl van leermodellen kan uiteindelijk zelfs een doodlopende weg zijn, met bizarre vereisten qua hardware en elektriciteit. Als de hype wat bekoeld wordt pas duidelijk hoe winstgevend en verstandig de LLM's echt zijn.

Maar goed, de details over dit besluit zijn niet bekend. Misschien speelden er andere kwesties achter de schermen. Er is onder andere gezegd dat "Altman niet altijd het bestuur volledig informeerde", en ook komt dit besluit heel snel na de grote conferentie die Altman presenteerde.

[Reactie gewijzigd door geert1 op 23 juli 2024 01:15]

Ligt aan de doelstellingen van de organisatie lijkt me. Het doel heiligt niet altijd de middelen.
[...]
Zie jij Links Links Midden als visie?
Large Language Model
Is dat zo? Elon Musk en Sam Altman zijn nu weg, maar Peter Thiel lees ik verder niets over?
https://nl.wikipedia.org/wiki/OpenAI
Oprichter(s) Elon Musk, Sam Altman, Peter Thiel en anderen
https://www.forbes.com/si...ed-by-sam-altmans-firing/
De lijst van oprichters op de EN Wikipedia is anders en daaruit lijkt erop (en dat is logischer) dat Musk/Altman wel betrokken waren maar niet zozeer op de inhoud.
Sam Altman was geen oprichter van OpenAl, hij was een van de initiële raadsleden, net zoals Musk.
Er zitten nog genoeg oprichters bij OpenAl. Alleen Brockman is opzij gezet door de raad.
Dat kan als er een beweging is van een onderzoeksgroep naar een commercieel bedrijf.
Er kan altijd een verschil van inzicht ontstaan. Hier is dat vermoedelijk ook zo en wordt naar de pers een of ander onzinverhaal opgehangen. Vermoedelijk denkt Altman wat commerciëler dan de overige leden van de raad.
<offtopic>Jij noemt het woke, ik noem het gewoon andere mensen in hun waarde laten, maar goed</offtopic>
Wellicht krijgt je reactie -1 omdat je (weer) wat roept wat helemaal niet aan de orde lijkt te zijn?
Is hier soms ergens achtergrondverhaal dat ik heb gemist? Lijkt me daar nogal wat om te gaan achter de schermen.
Volgens Ars Technica zou het gaan over een verschil van inzicht over de toekomst van OpenAI voor wat betreft omzet vs veiligheid. https://arstechnica.com/i...s-hold-all-hands-meeting/ De rest van het artikel is sowieso interessant.
Hier staan nog een aantal alternatieve interessante theorieën.
https://techcrunch.com/20...O-lJk6Z_ycA0TcUDivVo75tXh

[Reactie gewijzigd door HawVer op 23 juli 2024 01:15]

Volgens Ars Technica zou het gaan over een verschil van inzicht over de toekomst van OpenAI voor wat betreft omzet vs veiligheid.
En als ik tussen de lijntjes daar en elders lees was het:
- Sam Altman => omzet
- Ilya Sutskever => veiligheid
Tenzij ik iets helemaal verkeerd gelezen/begrepen heb...
De echte techneuten (oa. Bengio) zijn er al eerder uit gestapt omdat ze de risicos niet goed gemanaged vinden. Met alle verhalen eromheen lijkt het me een tweestrijd tussen gecontroleerd evolueren van de techniek en een quick cashgrab door de grote nieuwe investeerder (MS).
nvm

[Reactie gewijzigd door Relief2009 op 23 juli 2024 01:15]

Klinkt alsof Greg Brockman het niet unaniem met de rest van het bestuur eens was met dit besluit?

[Reactie gewijzigd door Skit3000 op 23 juli 2024 01:15]

Ik vind het altijd nogal makkelijk om het ergens in je eentje unaniam mee eens of oneens te zijn. Maar ik snap de gedachte.
Iets te snel getikt, aangepast.
een individu kan niet unaniem zijn, enkel een verzameling
Aangepast, ik had te snel getikt.
Vrij onverwacht. Benieuwd naar het effect, straks.
MS zal op termijn Open AI overnemen. Daar ben ik wel van overtuigd.
Is het niet officieel zo dat er een profit OpenAI LP naast de non-profit OpenAI bestaat?

Ik weet niet wat ik van M Murati moet vinden, ze is slim, heeft inzet, maar een doordrammer en komt uit de stal van Musk; dat geeft me koude rillingen kwa bestuurlijke eigengereidheid. Een AI type voor absolute macht.
Kan de EU Sam Altman niet regelen voor een EU AI organisatie? Het bedrijfsleven hier ligt te slapen en er zijn al miljardenpotten voor zowel AI als digitale innovatie.
De genoemde reden voor ontslag en de onbetrouwbaarheid om eerst op non-profit te leunen om daarna te cashen als profit lijken me eerder ongewenste kenmerken en het tegenovergestelde van wat nodig is. Voor AI is transparantie en ethiek nodig.
Op dit moment is er niemand in de EU (buiten het door Google in eigendom zittende Deepmind) die ook maar in de buurt komt van wat de Amerikanen, Chinezen of zelfs Arabieren (met Falcon) doen. Als we niet snel actie nemen dan zijn we voor onze transparantie en ethiek in AI afhankelijk van deze landen. Voor snelle ommekeer heb je iemand nodig die daadwerkelijk wat voor elkaar kan krijgen. Denk niet dat Sam voor deze rol beschikbaar is, maar je zult als EU toch wel even wat moeten gaan doen als je nog een rol wil spelen in de toekomst.

De miljarden zijn er dus al, alleen het is maar de vraag wat ze ermee gaan doen. Als dit alleen maar gebruikt gaat worden voor governance frameworks en subsidies aan hobbyprojecten van bedrijven in de EU kom je nergens.

[Reactie gewijzigd door kftnl op 23 juli 2024 01:15]

Saoedi Arabië ML ben ik niet bekend mee, maar rijk zijn ze wel. China loopt volgens Helen Toner 2-3 jaar achter. In de huidige geopolitiek is afhankelijkheid van de VS de minste van de kwaden omdat China er autoritaire trekjes op na houdt. Dwz choose your overlord, en VS sluit meest aan bij onze Westerse normen en waarden.

Verder zijn de weights m.i. de kroonjuwelen en dan denk ik vooral aan LLaMa. Daar kunnen we in EU ook mee aan de gang. Het is niet alsof we hier niets met ML doen.
Als we niet snel actie nemen dan zijn we voor onze transparantie en ethiek in AI afhankelijk van deze landen.
Die afhankelijkheid is er pas als je de eigen grenzen van transparantie en ethiek negeert. Het feit dat er in andere landen een andere transparantie of ethiek is wil namelijk niet zeggen dat je daar akkoord mee kan gaan. Daarom zijn er ook regulering in de EU. En dat verschil kunnen we bijvoorbeeld niet gewenst vinden, maar dat is geen reden om het te negeren om voorkeur te geven aan een persoon die kennelijk heel andere belangen lijkt te hebben dan wat in de EU vraagt en geld voor beschikbaar is. Daarbij, ook in de BS accepteren ze de houding kennelijk niet. Wat eerder wijst dat ethiek en transparantie dus net zo hard of zelfs meer nodig zijn voor waardevolle AI, ook buiten de EU.
Waarschijnlijk zijn ze er over aan het vergaderen. De komende jaren hoef je daar niets van te verwachten.

Ook belachelijk dat je hier subsidies voor nodig zou hebben.
Een AI heeft nu de rol als CEO overgenomen? Of raad van bestuur is een AI?

[Reactie gewijzigd door ro8in op 23 juli 2024 01:15]

Volgens het artikel op nu.nl heeft Mira Murati nu de positie van interim CEO gekregen. Maar AI in de rol van CEO zou wel een leuk expiriment zijn :+
Een groot deel van het werk kan ongetwijfeld door AI worden gedaan. Besluiten zullen meer fact-based worden. Of dat altijd wenselijk is, is weer wat anders natuurlijk. Er zijn genoeg besluiten die een CEO moet nemen voor situaties die nooit eerder zijn voorgekomen, en die objectief gezien niet logisch hoeven te zijn.
Precies, zie het zelf vaak ook (sr. leader). Veel beslissingen zijn noodgedwongen gebaseerd op niet volledige informatie of vereist een afweging tussen zaken die slecht te vergelijken zijn. Al die MBA matrixjes helpen gedachten te ordenen, maar uiteindelijk is het toch deels gut-feeling.
AI heeft geen gut-feeling. Het heeft slechts een BigData-feeling en geeft wat het meest triviaal lijkt te zijn op basis van de grote data.
Ja precies, dus ik geloof niet dat AI snel de beslissingen neemt in ondernemingen :)
Doen ze al: op willekeurige momenten worden vele bankrekeningen geblokkeerd en financieringsaanvragen nu al afgewezen door “AI”. En dan nog niet eens zulke goede AI modellen zoals ChatGPT, maar black box automated decision making

[Reactie gewijzigd door Weicool op 23 juli 2024 01:15]

Dat zijn zaken die worden "besloten" op basis van objectieve informatie. Dat kan gewoon (uiteraard wel afhankelijk van de volwassenheid het model dat er achter zit).

Waar de mensen voor jou op doelden zijn board-room beslissingen. Dan heb je dus niet genoeg feitelijke informatie om een beslissing te kunnen maken. Dan komt het dus aan op het gevoel voor het bedrijf en de markt waarin het opereert. Dat kan AI domweg niet, omdat het uiteraard niet dat gevoel kan hebben.

Dat zijn dus een heel ander soort beslissingen die niet te vergelijken zijn.
Er bestaan in de wetenschappelijke literatuur anders veel voorbeelden van “adversarial machine learning”. Je kunt bijvoorbeeld “data poisoning” toepassen waardoor je vijanden die hard werken met hun goede baan 0% kans op succes hebben bij hun hypotheek en jij als crimineel 100% kans op succes hebt bij een hypotheek en als het ware dus de bank beroofd!

Er kan met Explainable AI zoals GPT-4-Turbo veel meer dan mensen denken: de meerderheid weten het alleen niet het meeste eruit te halen.

[Reactie gewijzigd door Weicool op 23 juli 2024 01:15]

Je blijft maar doorgaan op het voorbeeld van de goed- of afkeuring van hypotheken. Maar nogmaals: dat is een voorbeeld van een beslissing die 100% op basis van feitelijke informatie te nemen is. In mijn ogen is dat niet eens AI, dat is gewoon het volgen van een vooraf opgesteld beslissings-schema.

De vraag of het goed is om een nieuwe fabriek te gaan bouwen om als bedrijf in een andere markt te gaan stappen is iets wezenlijks anders, en daar is AI op dit moment gewoon nog niet toepasbaar.

[Reactie gewijzigd door Kroesss op 23 juli 2024 01:15]

Het is “feitelijke informatie” tussen aanhalingstekens, want wat jij gaat zeggen wat echt is kan dus nep zijn en andersom.
GPT-4 kan juist heel goed 24/7 op basis van data een uitgebreide lijst van voordelen en nadelen geven van een nieuwe fabriek bouwen en in een markt stappen op basis van data, terwijl de mens relatief dom is in vergelijking en helemaal geen exaFLOPs per seconde aan pure tekst data kan verwerken.

[Reactie gewijzigd door Weicool op 23 juli 2024 01:15]

Deze mening deel ik helemaal hoor. Maar het idee gaf me wel een kleine glimlach op mijn gezicht
Besluiten zullen meer fact-based worden.
Onzin. Besluiten zullen meer worden zoals de data die je het model voert. Garbage in, garbage out.
Is dat minder slecht dan hoe het nu gaat ?
Ja, denk het wel. Je kunt zo'n ding de meest immorele zooi voeren en dan wordt dat de voedingsbodem voor de oplossingen die de AI als logisch ziet. Een AI heeft bijvoorbeeld geen emoties, geen empathie, geen besef van wat zn acties teweeg kunnen brengen en de maatschappeliujke wenselijkheid daarvan. Je kunt stellen dat menig CEO daar ook niet in schittert, maar de meesten hebben geen totaalgebrek aan deze menselijke eigenschappen.
Nou moet je je voorstellen dat de aandeelhouders van een bedrijf de CEO vervangen door een AI waarvan ze zelf bepalen hoe die functioneert. Wat is dan de kans dat dat goed gaan uitpakken voor de mensheid?
Ik zie zeker jouw punt. Al denk ik dat het als ondersteunings tool al snel zijn intrede zal maken.

Er zijn zoals je al aanhaalt zat ceo’s die wat morele guidance kunnen gebruiken 🙂.
En wij maar denken dat AI voor onze banen zou komen........
Ai heeft hiermee in ieder geval 2 banen gekost. 8)7
Een gevalletje Steve Jobs ?
niet consistent openhartig
Dit is toch gewoon Amerikaans jargon voor “niet altijd even eerlijk” ?

Op dit item kan niet meer gereageerd worden.