'Hoofd van Meta's AI-afdeling Yann LeCun vertrekt en start eigen AI-bedrijf'

Yann LeCun, de hoofdwetenschapper van de AI-afdeling van Meta, vertrekt na twaalf jaar bij het bedrijf om een eigen AI-start-up op te richten. Dat meldt de Financial Times. Zijn nieuwe bedrijf zou zich richten op de ontwikkeling van 'AI-wereldmodellen'.

Yann LeCun
Yann LeCun

Ingewijden zeggen tegen de Financial Times dat Yann LeCun in 'de komende maanden' bij Meta gaat vertrekken. Volgens de krant komt zijn AI-visie niet overeen met die van Meta-ceo Mark Zuckerberg. Hij zou daarom een eigen start-up willen oprichten, waarvoor hij naar verluidt al investeringen aan het ophalen is.

LeCun zou zich niet willen richten op taalmodellen, zoals die van Meta, omdat die volgens hem 'nooit kunnen redeneren en plannen als mensen', schrijft de Financial Times. In plaats daarvan zou hij 'AI-wereldmodellen' willen ontwikkelen. Dat zijn modellen die getraind zijn op beelden van de wereld in plaats van alleen met taal. De AI-topbestuurder zou verwachten dat het zo'n tien jaar duurt voordat de architectuur volledig is ontwikkeld. Onder meer Google DeepMind en Pokémon Go-maker Niantic werken ook aan AI-wereldmodellen.

Door Kevin Krikhaar

Redacteur

12-11-2025 • 15:07

15

Submitter: Keyb

Reacties (15)

Sorteer op:

Weergave:

Voor diegene die het interesseert: de visie van Yann LeCun is al een tijdje bekend. Een tijdje geleden gaf hij ook een bekend interview: I'm done with LLMs . Een LLM 'lijkt' intelligent, maar in de basis encodeert het kennis (woorden, tekst) d.m.v. een tokenizer en slaat deze op in een vector DB. Daarbij voegt het context toe over meerdere dimensies (tensors met gewichten), b.v. hoe sterk het ene token relateert met het andere. Er zijn heel veel verschillende strategieën om dit te doen. Uiteindelijk genereert het een nieuw token gebaseerd op de vraag (prompt) en het al gegenereerde token (autoregression model). De antwoorden lijken intelligent, maar zijn statistisch gegeneerde antwoorden, token voor token.

Yann LeCun beargumenteert dat 'leren' meer aansluit bij hoe bijvoorbeeld een mens interacteert met zijn/haar omgeving en de reactie daarop. Het paradigma dat hij beschreven heeft is het zogeheten 'world model', oftewel, een abstracte representatie van ervaringen uit het verleden, en dat het brein continue een vervolgactie bepaalt (berekent) o.b.v. dat mental model. Dit is fundamenteel een andere benadering dan de huidige manier van LLMs trainen, maar hier moet nog een hoop werk gebeuren. Het is goed om te zien dat er ook wetenschappers zijn die nadenken over de huidige beperkingen van LLMs en de benodigde rekenkracht en energieconsumptie, en dat dit wellicht een 'flattening curve' is.....
LeCun zou zich niet willen richten op taalmodellen, zoals die van Meta, omdat die volgens hem 'nooit kunnen redeneren en plannen als mensen', schrijft de Financial Times.
En zo geeft dus ook het hoofd 'AI' van Meta toe dat er aan de huidige vorm van kunstmatige intelligentie werkelijk helemaal niks intelligents is, en het dat ook niet zal worden. Het is een ontwrichtende techniek die ergens wel zijn plaats gaat vinden en toegevoegde waarde gaat hebben maar helaas enorm opgeblazen.
Yann LeCun zegt dat al jaren.

AI gaan wel degelijk de wereld op zijn kop zetten zoals technologie dat nooit eerder heeft gedaan, maar we zijn er niet om echte AI in de praktijk te brengen. De generalisatiecapaciteit van transformers is beperkt, er valt nog genoeg te ontwikkelen aan algoritmen om modellen te trainen, we missen mogelijkheden om modellen op basis van nieuwe data 'online' te verbeteren, de integratie met logica is nog heel moeilijk / computational zwaar (en daardoor geheel afwezig in Generatieve AI).

Generatieve AI gaat niet nu nog ineens heel veel beter worden, de teleurstelling van GPT-5 was volledig te verwachten. Dat gezegd, de kracht van de huidige tools hoeven we ook niet te kleineren, maar je moet wel nog zorgen voor goede integratie met data en processen. Er zit enorme waarde in voor bedrijven die dat goed weten te krijgen.

Ik grap al een tijd naar collega-onderzoekers dat de huidige modellen niet eens AI genoemd zouden moeten worden. Ze zijn gebouwd met AI, maar ze kunnen zowel niet leren als redeneren, terwijl dat traditioneel de definiërende eigenschappen waren van wanneer onderzoek als 'in-scope' wordt beschouwd bij de AI-conferenties.

[Reactie gewijzigd door Jefrey Lijffijt op 12 november 2025 15:45]

Dat zegt 'hij' (volgens) toch niet? 'Hij' zegt dat Meta dat alleen doet. Er zijn al tal van AI ontwilkungen ook op basis van beelden. Van automotive industrie tot aan kankeronderzoek.
Het is ook niet inteligent en het is best een "simpel" concept. Heel aardig om je te helpen met data en vooral grote brokken aan data, iets wat steeds lastiger is voor ons als mensen en met onze huidige middellen.
Het kan ook geen AIG worden of wat dat dan ook mag zijn.
Het is een prettig antwoord nadat in het vorige decenia "data" zich flink heeft ontwikkeld als element in ons bestaan.

Het is dus maar net wat je er van wilt maken.

Ik denk dat GenAI een hele aardige toevoeging is op Machine Learning en Deep Learning, al heeft DL tot op heden veel meer nut gehad dat GenAI, GenAI maakt ook gebruik in essentie van DL algo's (kort door de bocht).
Vooral DL is heel nuttig omdat het patronen kan opsporen in datasets die wij als mensen nooit zo snel zouden herkennen. Het helpt ons echt verder (bv theoretisch chemisch onderzoek naar nieuwe medicatie) of bv bij Radiologisch onderzoek in de zorg.

Dat je er ook een grappig plaatje, muziekje of video'tje mee kan draaien is natuurlijk maar medior relevant voor ons als mensheid.

Wat daarnaast heel aardig is bij GenAI en dat maakt het ook geliefd en toegangkelijk is het concept van mensenlijk taal vertalen naar het algoritme en de algo outputs ook heel aardig weer te vertalen naar taal. En dat vrij snel. Het wekt een leuke indruk van interactie, een mooie toekomstige vervanger van muis, toetsenbord en schermen (invoer).

De hype is wat men er van maakt.
tot nu toe zijn er twee toepassingen waarrvoor ik het gebruikk (wetenschap), literatuur bij een vraag zoeken, die ik vervolgens zelf doorkijk, dus een soort van snelle zoekmachine, en code genereren (in mijn geval python of c++). Dat is in feite ook een zoekmachine want er zijn zoveel opensource voorbeelden dat chatgpt veel sneller mogelijke antwoorden vindt dan ik. Ik heb alle taalschtige antwoorden uitgezet, dus alleen sec antwoorden, en niet van "ofh wat een fantastische vraag , bla bla bla).

Ik weet niet of code ook token voor token gegebnereerd wordt of dat code fragmenten gebruikt worden.
omdat die volgens hem 'nooit kunnen redeneren en plannen als mensen', schrijft de Financial Times. In plaats daarvan zou hij 'AI-wereldmodellen' willen ontwikkelen. Dat zijn modellen die getraind zijn op beelden van de wereld in plaats van alleen met taal.
Wat maakt het dat deze wijziging in de set aan trainingsdata het mogelijk maakt wel te redenen/plannen als mensen?
Er zijn drie belangrijke ingrediënten bij het maken van een model: de data, de modelklasse en het optimaliseringsalgoritme. De naam GPT zoals OpenAI gebruikt voor hun modellen staat voor Generative Pretrained Transformer. Generative is een algemene klasse van modellen waarbij een kansverdeling wordt gegenereerd over alle mogelijke uitvoeren. Pretrained staat ervoor dat het niet specifiek voor 1 taak is, maar dat er algemene data wordt gebruikt om een breed toepasbaar model te maken. Transformer is de modelklasse (ook wel architectuur van het neuraal network genoemd).

Een Transformer model is totaal niet zoals onze hersenen werken en kan niet noodzakelijk efficient de juiste soort patronen opnemen uit de trainingsdata. Het bevat geen enkele mogelijkheid tot expliciete representatie van kennis (alles is op basis van numerieke relaties en kansverdeling) en het is geen efficiënte manier om logica of echte berekeningen uit te voeren. Vandaar dat ze zo slecht zijn met cijfers.

Een modelklasse geeft een inductive bias mee, zeg maar de manier waarop je efficient uit data kunt leren. Convolutionele neurale netwerken vormden bijvoorbeeld een doorbraak in beeldverwerking, doordat je daarmee de schaal kunt leren en allerlei specifieke relaties tussen pixels die ook nuttig zijn om 'visie' te ontwikkelen. Des te minder vrijheid, maar wel met de juiste expressiviteit geeft zoveel mogelijk efficiëntie om zinnige patronen te herkennen. Zo leer je zoveel mogelijk uit een gegeven hoeveelheid data.

We zijn wat mij betreft een onbekend aantal stappen verwijderd van echte AI die kan leren en redeneren. Ik zie geen redenen waarom we dat niet zouden kunnen bereiken, er zijn geen theoretische resultaten die daarvoor roet in het eten gooien. Echter halen huidige modellen maar heel weinig nuttige informatie uit de gegeven data. We zullen andere modelklassen moeten ontwikkelen, vermoedelijk die veel minder parameters bevatten en expliciete kennisrepresentatie omvatten evenals een directe connectie met logica. Dit is ook enigszins wat Yann LeCun zegt, hoewel hij net doet alsof hij de oplossing al heeft, wat mijns inziens bullshit is. Er valt nog heel veel te ontwikkelen in architecturen van neurale netwerken om de efficiëntie drastisch te kunnen verhogen, zijn JEPA model gaat dat niet ineens volledig brengen.

Wij zijn als soort over miljarden jaren geëvolueerd en onze hersenen bevatten duidelijk een heel sterke inductive bias om efficient te kunnen leren. Die informatie zit in ons DNA. Bij neurale netwerken stop je die in de architectuur, maar we weten nog niet zo goed hoe we dat moeten doen.
Ik snap de link ook niet echt maar de wetenschapper zal zich vast ergens op baseren om dit te denken. Blijft natuurlijk een hypothese want ook deze mensen "denken maar wat" al zal het vast procentueel tot meer resultaat leiden als dat ik met een idee zo komen :). Maar met plaatjes ga je volgen mij een AI niet beter laten plannen (wat dat dan ook weer zou mogen betekenen).

Ik denk persoonlijk dat ook dit een dood spoor is. Ik kan verkeerd zijn, maar volgens mij hebben we de boom gehad en zit het nu voor pakweg 25j weer compleet vast. Stilstand is achteruitgang en dat gaat voor mij ook op bij dergelijke uitvindingen. Of de investeerders draaien het zelf de nek om door too greedy te worden, dat is ook nog altijd een zeer plausibele outcome vrees ik.

Edit: zie nu ook net dat volgens wikipedia één van zijn domeinen visual learning van AI's is. Dat verklaart natuurlijk veel waarom hij dit denkt. Draait zo te zien al heel wat jaren mee, nog van voor de ChatGPT hype. Dus ik veronderstel dat deze persoon wel wat kennis in huis heeft.

[Reactie gewijzigd door Powerblast op 12 november 2025 15:43]

Je zou toch denken dat grote multinationals zoals Meta een `non-compete agreement` (ons concurrentiebeding) in hun arbeidsvoorwaarden hebben opgenomen. En toch lees ik best vaak dat een expert op een bepaald gebied opstapt bij zo'n groot bedrijf om voor zichzelf (of de concurrent) te beginnen. Weet iemand hoe dat precies in de Verenigde Staten?
Van wat ik heb gehoord is in California verboden om non-compete clasules in het contract te zetten.

edit:
dit verschilt dus per staat en er is zelfs een kaart die aangeeft wat de wet is: https://eig.org/state-noncompete-map/

[Reactie gewijzigd door PjotrX op 12 november 2025 15:25]

Je zou toch denken dat grote multinationals zoals Meta een `non-compete agreement` (ons concurrentiebeding) in hun arbeidsvoorwaarden hebben opgenomen
Ik kan me vooral voorstellen dat ze dat willen.

Maar dat is maar het halve verhaal, een contract is een afspraak tussen 2 entiteiten, dus de ander moet er ook mee akkoord zijn, en die wil dat waarschijnlijk niet.

Zou jij een baan aannemen als je weet dat je bij opzegging moet omscholen omdat je dat werk niet meer mag doen binnen je vakgebied?

Regio-gebonden is wel gangbaar maar voor een multinational valt de aarde dan af als regio :P

[Reactie gewijzigd door watercoolertje op 12 november 2025 15:26]

Ik denk niet dat Yan LeCun, die al vooraanstaand was in AI voordat hij bij Meta begon een contract met een non-concurentie clausule gaat tekenen. Normale sterfelijken zoals wij hebben iets minder te onderhandelen als we bij een Meta willen werken. Al zou ik ook geen non-concurentiebeding meer tekenen tenzij deze heel specifiek is afgebakend.
In de VS geen idee, maar in Nederland is dat vaak niet rechtsgeldig omdat je niet iemand kunt verbieden geld te verdienen met .. z’n werk. Want wat moet je anders? Vakkenvullen tegen hele andere tarieven?
Het zou ernorm fijn zijn als hij weer terug naar Europa komt om hier dat bedrijf op te richten.


Om te kunnen reageren moet je ingelogd zijn