Meta schrapt banen bij fundamenteel AI-onderzoek, maar gelooft nog in super-AI

Facebooks moederbedrijf Meta gaat zo'n 600 banen schrappen in zijn AI-divisie. Deze ontslagen raken de onderzoeksafdeling die zich richt op fundamenteel AI-onderzoek. Ondertussen neemt Meta nog wel mensen aan voor zijn nieuw opgezette tak voor super-AI.

Deze reorganisatie, waarbij zo'n 600 banen worden geschrapt, werd gemeld door Axios en daarna door Meta bevestigd aan The Verge. De ontslagen vallen vooral in de afdeling Fundamental AI Research en in de divisie voor AI-producten en -infrastructuur. Terwijl Meta-ceo Mark Zuckerberg AI-toptalent aantrekt met miljoenensalarissen, zou fundamenteel AI-onderzoek, met focus op veilig en verantwoord AI-gebruik, minder in trek zijn geraakt. De ontwikkeling van generatieve AI en de mogelijkheid om geld te verdienen aan AI-producten zou niet alleen bij Meta nu de prioriteit hebben.

Het zogeheten TBD Lab, dat afgelopen zomer is opgezet, richt zich op het ontwikkelen van de volgende generatie van de grote taalmodellen die Meta gebruikt voor zijn AI-toepassingen. Deze tak valt onder de Meta Superintelligence Labs, waarvoor Zuckerberg zelf AI-toponderzoekers in huis haalde.

Door Jasper Bakker

Nieuwsredacteur

23-10-2025 • 07:57

64

Reacties (64)

Sorteer op:

Weergave:

De ontwikkeling van generatieve AI en de mogelijkheid om geld te verdienen aan AI-producten zou niet alleen bij Meta nu de prioriteit hebben.
Ah, ze zijn dus toch maar gesetteld op de technologie die sowieso niet gaat leiden tot echte AI en waar eigenlijk de meeste vooruitgang wel klaar is, maar waar wél enorme bakken geld tegenaan gegooid worden door investeerders.

Waarom zou je níet fundamenteel onderzoek willen doen naar de technologie waarvan je zelf (en iedereen en z'n moeder) zegt dat het alles en iedereen voor altijd gaat veranderen? ;) Zoals Zuckerberg zelf al zei: als je uiteindelijk een paar honderd miljard verspilt is dat jammer, maar dan was je er wel als eerste bij. Of geldt dat ineens niet meer?

[Reactie gewijzigd door vickypollard op 23 oktober 2025 08:12]

Meeste vooruitgang wel klaar?! Dat is niet hoe ik het ervaar. Om een visueel voorbeeld te noemen: zie eens hoe generatieve AI zich heeft ontwikkeld op beeldgebied: 4 jaar geleden kon je nog geen kindertekening genereren, en vandaag zijn video's niet van echt te onderscheiden, zie https://www.oneusefulthing.org/p/an-opinionated-guide-to-using-ai. Op LLM-gebied zie ik vergelijkbare dingen gebeuren. Benieuwd hoe jij daar tegenaan kijkt.
De huidige technologie is praktisch uitontwikkeld, LLMs hebben gewoon beperkingen waar men tegenaan loopt. De meeste winst is/was te halen met trainen op méér data (en dat zie je dus ook terug de afgelopen jaren), maar ook dat nu wel zo'n beetje uitgeput, aangezien ze alles wat ze bij elkaar konden schrapen (legaal en illegaal) er al in hebben gestopt. En daar staan we nu... de data is op, modellen trainen kost vele miljarden en vereist steeds grotere datacenters die miljarden dollars kosten en jaren duren om te bouwen, de toegevoegde winst van het trainen wordt steeds minder, maar de modellen zijn nog altijd niet op een baanbrekend niveau.

Ook bij gebruikers lijkt het door te dringen. De laatste statistieken wijzen erop dat het gebruik begint af te vlakken en soms zelfs af te nemen.

Ze hebben een baanbrekende ontwikkeling nodig...

[Reactie gewijzigd door vickypollard op 23 oktober 2025 09:52]

Die baanbrekende ontwikkeling zou een daadwerkelijke kunstmatige intelligentie zijn. Men simuleert nog steeds niet hoe mensen echt denken maar geven slechts een respons op basis van (weliswaar gigantisch veel) data van hoe mensen zouden reageren. Dat is natuurlijk fundamenteel niet hoe intelligentie werkt, een kind hoeft ook niet heel Wikipedia te lezen om een beetje normale zinnen te kunnen vormen. De data is op, en als het zo daar gaat komt er ook niet veel goeds bij nu het web overspoeld wordt door AI-gegenereerde slop en het hele bedrijfsmodel van zelf teksten schrijven de grond in wordt getrapt. Maar zelfs al zou men die daadwerkelijke intelligentie wel kunnen maken - misschien gewoon nóg meer data nóg meer GPUs er tegenaan gooien - dan moeten we ons serieus afvragen of we dit eigenlijk wel moeten willen. Want wat we dan aan het maken zijn, zijn intelligente slaven.
LLMs zoals we vandaag zien, was een gamechanger, tientallen jaren dacht men dat het geen nut had of kreeg men het niet werkend, en toen plots wel. In de afgelopen tien jaar zien we dan ook een gigantische ontwikkeling, samen met de bijbehorende hardware. Wat de volgende ontwikkeling is, we zullen het wel zien. Misschien morgen, misschien over 50 jaar.

Neemt niet weg dat de huidige techniek niet stil staat maar dat de groei met name zit in nog meer kracht, en die kracht staat ook niet stil.
de data is op,
De grap is dat dit vrij snel werd voorspeld... een model dat alles wat geschreven is, nodig heeft om antwoorden te 'bedenken', is een tegenstrijdigheid want we hebben nog niet alles geschreven (en zullen nooit alles hebben geschreven).
... en wat als het meerendeel van wat nu nog wordt geschreven voor een belangrijk deel uit de koker van AI komt? Dan wordt het model gevoed met gegevens van zichzelf. Dit zou dan "eigenwijsheid" veroorzaken?
Ja, dat is een goed punt. Als AI gevoed wordt met z'n eigen fouten en die AI-gegenereerde data bijvoorbeeld moeilijk of niet te onderscheiden is van door mensen gegenereerde data, wordt AI alleen maar dommer. De mens is lui genoeg om nu lekker op AI te gaan leunen, zeker nu de kwaliteit zo sterk verbeterd is, maar ik ben benieuwd of we nu een soort piek in kwaliteit hebben bereikt en AI in de toekomst meer en meer mensen met 3 handen, 6 vingers, etc zal tekenen, omdat dat in z'n geleerde data zit :P
Dus blijf je zo'n ding constant trainen, alleen wordt er nu ook heel veel AI-slop de wereld ingeslingerd waar de bots weer op trainen, dus door het nog veel langer vol te houden, gaat het zelfs juist achteruit.
Dus blijf je zo'n ding constant trainen
Ja, maar dan nog.... het loopt per definitie achter. Nu geldt dat in zekere zin ook voor ons mensen natuurlijk maar wij kunnen 'out of the box' denken (niet dat we dit altijd doen natuurlijk).
Dat je zegt dat er beperkingen zijn betekend juist dat het nog niet uitontwikkeld is.
Die beperkingen zijn inherent aan de technologie, het is zeker wel uitontwikkeld. Wil je die beperkingen tacklen, dan zal je met een andere technologie moeten komen dat wezenlijk anders werkt.

Maar het klopt wel wat @vickypollard zegt, het enige waar de bots nog op verbeteren is door er meer data en gpu's tegenaan te gooien, nog wat handige toepassingen en features enzo, maar de LLM tech zelf, hetgeen wat het ding "intelligent" zou moeten maken, dat is wel af. Het kan altijd nog sneller en groter, maar die baanbrekende ontwikkeling die nodig is waar vicky het over heeft, bestaat niet.
Andere technologie of hoe je het ook wil noemen is prima, maar dat wil dus zeggen dat het dus niet uitontwikkeld is.

Ze ontwikkelen niet met de mindset 'we moeten deze LLM verbeteren', maar ze werken aan ai in en verbeteringen aan de ai-space.
"De mobiele telefoon is nog niet uit ontwikkelt, want je kan er een stel wielen onder zetten en het een auto noemen". Met zo'n gedachtegang is de term nogal nutteloos, eh?

Op het moment betekend AI-ontwikkeling gewoon LLM-ontwikkeling, die zijn synoniem. Het is niet dat ze bezig zijn met een drastisch andere tak van AI die met LLM's moet gaan concurreren ofzo
De beperkingen zijn inherent aan LLMs
En dus zijn er verbeteringen mogelijk..
Je snapt blijkbaar niet wat "inherent" betekent.

Een inherente beperking is een beperking die onlosmakelijk verbonden is met de technologie. Je zult dus een andere techniek moeten ontwikkelen om van die beperkingen af te komen, in plaats van de bestaande technologie verder te ontwikkelen.
Alle AI die we op dit moment kennen is in de basis gebaseerd op de markovketting (markov chains). Deze route is nagenoeg uitontwikkeld zoals een aantal voor je meldde.

Natuurlijk is AI in het algemeen nog niet uitontwikkeld, maar dan heb je het over fundamenteel andere aanpakken, waar nog geen enkele vooruitgang in is geboekt. In dat opzicht dus een nutteloze uitspraak.

Dus nee, er zijn eigenlijk geen verbeteringen mogelijk op de modellen die we nu kennen. Daadwerkelijk kunstmatige intelligentie vereist dus een fundamenteel andere aanpak waarvoor verschillende wetenschappelijk doorbraken nodig zijn evenals een gigantische berg tijd, energie en geld.

Sidenote: Je houding komt erg vervelend over. Het is duidelijk dat je niet precies weet hoe "AI" tot stand is gekomen en wat daar allemaal bij is komen kijken. Maar je voelt je wel geroepen om in discussie te gaan met mensen op dit forum die er wel enig inzicht in hebben. Daarbovenop kom je niet met een argument maar met een simpele uitspraak die eigenlijk alleen maar afdoet aan de discussie of het gesprek.
Volgens mij kunnen we spreken van micro-innovatie binnen huidige ideeën, in de periode 2021-2025, met vooral meer rekenkracht, data en stroomverbruik. Dat heeft zeker geleid van zeer matige tools naar veel sterkere, bijvoorbeeld voor het genereren van afbeeldingen. Technisch is het indrukwekkend, ten opzichte van wat computers voorheen konden doen. Maar is dat wat nodig is voor de volgende stappen naar bredere intelligentie?

Als het doel is om een intelligentie te maken die een breed scala aan banen kan overnemen, dan moet zo'n model veel meer modi krijgen (denkwijzen, verschillende soorten kunde en begrip) dan primair het omgaan met tekst en pixels. Het zal veel dichter bij ons brein moeten komen, met 15+ specialistische centra voor motorisch, spreken, luisteren, inbeelden, logische verbanden leggen, creativiteit, enz, enz. Plus een aantal mediatiecentra voor het samenbrengen van al die modi en zintuigen. Dat is hoe wij zo'n rijk bewustzijn hebben en zoveel dingen zo snel kunnen leren. Pas dan wordt het echt wat, lijkt mij.

Het kan best zijn dat slechts een paar van de huidige projecten in de hele AI-wereld echt bijdragen aan die volgende stappen, waaronder DeepMind van Google en andere algemene leersystemen, waar het doel veel ambitieuzer is dan de huidige AI-tools. Alle projecten die gericht zijn op het maken van een iets betere afbeeldingsgenerator kunnen wellicht niks bijdragen aan de macro-innovatie die gewenst is.

En als dat zo is, dan zullen huidige AI idealiter echt geld gaan opleveren zoals ze zijn (om deze huidige fase als financieel geslaagd te kunnen beschouwen op zichzelf, wat ik niet verwacht), maar vooral zal er voorbij ontwikkeld moeten worden met andere, slimmere methoden.

Disclaimer: ik ben geen AI-onderzoeker en probeer deze zaken als leek te volgen.

[Reactie gewijzigd door geert1 op 23 oktober 2025 13:28]

De generatieve AI's voor het maken van afbeeldingen en video's is zo ongeveer het enige punt waarop ik bij de generatieve AI zelf enorme vooruitgang zie.

Mijn persoonlijke ervaring met de dingen waarvoor ik het dagelijks gebruik is dat de kwaliteit naar beneden gaat ipv naar boven. Kom steeds vaker punten tegen waarbij de AI compleet verkeerde antwoorden geeft op vragen die ik 2 jaar geleden vrijwel 100% goed beantwoord kreeg. Van teksten die opeens niet meer kloppen bij het herschrijven, vragen over documentatie waarvan ik zeker weet dat er bepaalde zaken in staan waarbij de AI maar blijft vasthouden aan zijn antwoord en zo kan ik wel even doorgaan. Wij zijn dan ook alle auto completes op basis van copilots met welk model dan ook aan het uitschakelen en gebruiken alleen nog maar sporadisch de chat functie.
En heel veel voorbeelden die je ziet en die mensen delen, worden wel cherry-picked.

Ik ken redelijk wat mensen die professioneel in de video wereld zitten. Er gaat nog een hele hoop fout met genereren van video. Uiteindelijk zit er alsnog een berg werk aan.

Voor korte clips kan het bv wel handig zijn, zeker wanneer de b-roll niet goed is of helaas afwezig. De fouten worden dan vaak "handmatig" zo weggepoetst dat het niet te obvious is.

Ik heb zo mijn twijfels of dit heel veel beter gaat worden. Zo in zijn algemeen trouwens.

Er zijn inderdaad grote stappen gemaakt. De vraag is echter niet of je grote stappen maakt, maar hoeveel moeite het gaat kosten om de eindstreep te bereiken. Aannemende dat deze te bereiken valt.

Vooralsnog is het vooral heel veel marketing en PR die het veel groter maken dan dat het is. Daarmee bedoel ik zeker niet dat het niks is overigens.
FIne tuning van de bestedingen? Er is nu een tijdje fundamenteel onderzoek gedaan wat een hoop heeft gekost. Nu even een tijdje monetizen, en daarna weer verder onderzoek doen. In een commerciele omgeving moet onderzoek toch binnen een bepaalde tijd voor omzet zorgen. In een academische omgeving hoeft dat niet dus daar kan men makkelijker door met fundamenteel onderzoek.
Maar wat gaan ze monetizen dan? Er zijn nu al niet genoeg mensen die willen betalen om winstgevend te worden. En als ze "even rustig aan" gaan doen, betekent dat dat de boel ook niet beter wordt en de kans dat mensen ervoor willen betalen dus ook niet toeneemt. Dan is de belofte uiteindelijk gewoon niet geleverd.

[Reactie gewijzigd door vickypollard op 23 oktober 2025 09:50]

Denk dat de onderzoekers in de fundamentele afdeling te veel klaagden over veiligheid en mogelijke gevaren van super intelegence.

Terwijl in de SI afdeling het zelfde werk wordt gedaan maar morele overwegingen die snelle innovatie in de weg staan minder zwaar wegen.
Ondertussen neemt Meta nog wel mensen aan voor zijn nieuw opgezette tak voor super-AI.
Is dit niet zoiets als Tesla's full self driving cars? Of Star Citizen's release date? Beloftes die zich altijd achter de volgende heuvel bevinden? :+

Zulke beloftes worden met name gedaan of naar gehint om de binnenkomende geldstroom stabiel te houden, ongeacht of het ooit tot een werkelijk product komt of niet.

[Reactie gewijzigd door The Zep Man op 23 oktober 2025 08:38]

Het is maar hoe je het bekijkt, als je er genoeg geld in pompt dan krijg je uiteindelijk wel een werkend product ook al bevind dit zich achter meerdere heuvels.
Voor tesla en star citizens heeft dit geen windeieren gelegd, die bedrijven doen het er goed, ook al
moeten ze nog enige heuvels nemen voordat ze tot het beloofde eindresultaat komen.
Dus ja het klopt dat het de geldstroom stabiel kan houden. Aan de andere kant, als je de boot mis loopt dan zullen de uiteindelijke kosten hoger zijn voor het bedrijf of het zelfs het bedrijf failliet laten gaan.
Kijk maar naar de overstap naar digitale fotografie, de fotowinkels(op de pasfoto makers na naast het gemeentehuis) die niet op tijd de digitale verandering omarmden zijn allemaal een voor een failliet gegaan hele ketens zijn over de kop gegaan.
Dus ja het klopt dat het de geldstroom stabiel kan houden. Aan de andere kant, als je de boot mis loopt dan zullen de uiteindelijke kosten hoger zijn voor het bedrijf of het zelfs het bedrijf failliet laten gaan.
Ook daar valt voldoende aan te verdienen. Zie organisaties die overgekocht worden en waarbij de leningen om de organisatie over te kopen afgeschoven worden op de organisatie zelf.

Het klassieke kapitalistische argument dat concurrentie alles oplost werkt sowieso niet als er geen concurrentie is.

[Reactie gewijzigd door The Zep Man op 23 oktober 2025 12:52]

(...) [A]ls je er genoeg geld in pompt dan krijg je uiteindelijk wel een werkend product ook al bevind dit zich achter meerdere heuvels.(...)
Nou, dat is de hoop, alleen is het natuurlijk veel vaker zo dat het project een bodemloze put blijkt te zijn maar niemand de verantwoordelijkheid durft te nemen om te zeggen: 'Sorry investeerders, dit gaat 'm niet worden, hier is het geld dat nog over is.' Niemand durft immers nog gezichtsverlies te lijden in de huidige samenleving, dus de projecten móeten ten koste van vrijwel alles slagen.
Idd. En de sunken cost fallacy: we hebben nu al zoveel uitgegeven, laat ons maar verder gaan op dit pad. Met een klein beetje meer geld komen we er wel (fingers crossed).
Ja, inderdaad.. hoe is het nu met MetaVerse bijvoorbeeld? #krekels
Een indicator dat de zeepbel op knappen staat.

Van de week deed mijn vrouw een blinde test tussen Chatgtp en mijn simpele brein. Een uitgebreide opdracht reduceren tot alleen de relevante informatie deden we allebei even goed (yay?). Daarna de stof uitleggen en toepassen op wat berekening (verzekeringsrecht) ging chatgtp aardig hallucineren. Nadat ik eerst werd beschuldigd van dat ik het onjuist had, kwam ik erachter dat ze chatgtp gebruikte voor samenvattingen en ondersteuning bij een opleiding, maar dat de informatie van chatgtp gewoon niet klopt. Als je het systeem daarop wijst dan komt er een hoop geblaat uit van "scherp, je hebt gelijk" en "goed gezien". Maar er kwam geen enkel correct antwoord uit, terwijl de basis in wetteksten/informatie van het uwv vandaan kwam. Toen we vroegen om er nog eens goed naar te kijken en het systeem op het juiste antwoord wezen, begon het de vraag in de opdracht te wijzigen om met de eigen niet correcte redenering tot dat antwoord te komen. Terwijl het een hoop nutteloze "sorry, je hebt gelijk" ertussen door gooide.

Mijn ervaring met verzekeringsrecht is trouwens 0, dus ik moest me ook eerst inlezen.

Ik ben totaal niet onder de indruk van chatgtp.

Het is vooral jammer. Als het wel goed zou werken, dan zou kennis veel toegankelijker zijn voor heel veel mensen.

[Reactie gewijzigd door Azenomei op 23 oktober 2025 08:56]

Zelf gebruik ik veel AI voor persoonlijke projectjes (cursor met ChatGPT5 / Claude 4.5). Maar ook met die nieuwe modellen is het maar deels succesvol te noemen. Het kan zeker een hoop tijd schelen. Het kan ook een hoop tijd kosten als het de mist in gaat en hoe complexer de taak, hoe sneller het volledig de mist in gaat. Ik zou wel eens willen weten hoeveel van die AI agents diensten die volledige apps zou kunnen produceren via een simpel prompt eigenlijk wat nuttigs produceren.

Dan Google AI summary, dit is wel het toppunt van slechte AI toepassingen. Hoeveel fouten daar wel niet voorbij komen. En dan kun je die troep van Google niets eens uitzetten!

Ik heb voorlopig al mijn tech-fondsen verkocht, want ik heb ook het idee dat er iets op knappen staat.

[Reactie gewijzigd door Menesis op 23 oktober 2025 09:19]

De AI app generatoren werken goed om prototypes te maken. En veel mensen denken daarom dat ze ineens kunnen programmeren. Ik zie het nu bij onze klanten die zelf begonnen zijn simpele interne apps te ontwikkelen die dan helemaal op 'hun behoefte' zijn toegesneden. Ze zijn super trots en enthousiast dat ze binnen een paar uur een werkende variant op een todo list of simpel score systeem klaar hebben. Wat ze echter totaal niet begrijpen is dat dit totaal geen productie code gaat zijn die langjarig stabiel gaat draaien. Dus ze nemen het in productie en krijgen dan de klachten van gebruikers en personeel omdat ze met allerlei in hun ogen niet voorkomende use cases niet voorkomen. En dan begint de interne ellende.

Dat gaat alleen maar erger worden in mijn ogen.
Samenvattend: als je chatGPT antwoorden laat geven over vragen waar je zelf geen benul hebt van het antwoord is het zoals altijd: die kun je alles aanpraten. Hoe minder zin iemand heeft om zich ergens in te verdiepen, hoe makkelijker je de onwaarheid voor waar aan gaat nemen, zeker als de onwaarheid plausibel is (of een hoop kennis vergt om die te weerleggen).

Weerleggen van onjuiste informatie kost m.i. meer moeite dan een waarheid bevestigen, zeker als de onjuistheid zit in (subtiele) details.

De 'hoffelijkheid' van chatGPT verdoezeld dat idd een beetje. En het taalgebruik dat het model 'denkt' is dan ook behoorlijk versluierend (het model denkt niet, het bedrijft statistiek en kansberekening op dingen die bij elkaar horen en is daarmee soms een nuttig hulpmiddel).
Maar als het systeem door een werkgever "verkocht" wordt als perfect hulpmiddel bij opleidingen. Dan gaan er dus meerdere dingen mis.
Dat klopt idd. Een iets meer kritische insteek (of minder luie afnemer van informatie) zou wel mogen ja. Zowel voor degene die zo'n systeem verkoopt als voor degene die het gebruikt. Wat wel lastig is: als het AI model gebruilkt wordt om zoveel data te doorploegen, dat een mens het gewoon niet kan bevatten (en dat is al de praktijk), wordt het heel lastig c.q. vergt het heel veel kennis of tijd om fouten van AI te detecteren (dat is 1) of zelfs te weerleggen (dat is nog moeilijker). Dan zijn we overgeleverd aan AI (want iets info wordt doorgaans als 'beter' ervaren dan geen info). Ergens ga je dan wel een (ethische) grens over, waar waarschijnlijk noch verkoper noch gebruiker heel veel over willen nadenken. Dat is geen prettig perspectief (dat is mijn mening).
Google's AI resultaten zijn ook echt hit-and-miss.
Bizar dat deze steevast bovenaan de resultaten staan.
Ik negeer ze 9 van de 10 keer tegenwoordig, maar er zijn vast veel mensen die niet verder kijken ....
Hebben ze de laatste paar jaar flink beurskoersen opgepompt van dit soort bedrijven en nu blijkt langzamerhand dat de prognoses (of beloftes) dat AI de heilige graal is niet opgaan en bedrijven moeite hebben om met de producten ROI te behalen....
NVidia doet dat ook....al die miljarden voor hun dure chips...gebruiken ze om AI startups te kopen al een malle, die weer hun rekenkracht zullen gaan afnemen in de toekomst natuurlijk....ze bouwen hun eigen orderboek-bubble
Ik vermoed dat Meta nu doorheeft dat de gouden AI bergen hoogstens koperplaat bedekte bergen zijn. Dat een basis AI goed genoeg is voor chat spellingcontrole en het automatisch taggen van kattenfoto's. Dat een AI chatbot in een berichten app ook weinig toevoegt. Ook voor profiel graaien voor gepersonaliseerde advertenties is een basis AI genoeg. Een paar profiel parameters lijken echt interessant om te verkopen aan (potentiele) adverteerders: geslecht, leeftijd, woonplaats, inkomen, relatievorm, evt. kinderen etc.
Misschien worden de banen geschrapt omdat de onderzoekers zo succesvol zijn dat hun banen door de door hunzelf gecreeerde AI overgenomen worden? Dan zijn het zeer succesvolle werkelozen.
Het is duidelijk dat ChatGPT achtige toepassingen een duidelijk plateau hebben. Ik denk echter dat hij al die wetenschappers eerder voor de hoogste bedragen ooit heeft ‘overgekocht’ om ervoor te zorgen dat ze bijvoorbeeld nooit meer bij Apple kunnen komen. Dus een strategische aankoop en ontslag in plaats van een duidelijke visie of plan.

Ik heb onlangs ChatGPT en DeepSeek getest en vergeleken om bepaalde grappen uit een film uit te leggen. Zo kan je ze zelf vergelijken en begrijpen waarom LLM Chatbots inmiddels een bubbel is
Jouw laatste zin snap ik niet helemaal, waarom is AI een bubbel omdat de huidige LLM chatbots een grap uit een film niet kunnen uitleggen? Geeft dat niet alleen de huidige beperkingen aan en zegt dat vrij weinig over waar het naartoe kan gaan?
Als je zelf ziet hoeveel slechter ChatGPT is met exponentieel hogere kosten en zogenaamd betere capaciteiten dan begrijp je dat ik niet de enige kan zijn die dit heeft ontdekt en dat het maar een kwestie van tijd is voordat de rest het doorheeft.
Een systeem maken dat zo veel moet kunnen is dan ook niet echt eenvoudig om te maken. Super flauw, ik snap dat je dat meteen gaat denken, maar wellicht moeten we accepteren dat we het moeten inzetten waar het goed genoeg werkt.
Het is op zich een logisch iets. Meta is op de eerste plaats een advertentieverkoper. Dat is hun businessmodel. AI is zeer belangrijk gereedschap voor ze, maar fundamenteel AI onderzoek is eigenlijk buiten hun algemene belang.

(Een gereedschapmaker zal ook maar beperkt onderzoek doen naar metaallegeringen. Maar ze zullen nieuwe legeringen wel gebruiken, en die techniek goed volgen.)

Het feit dat ze wel waren ingestapt bij de basis, was denk ik wel slim, zodat ze de technologie wel goed begrijpen en daar op in kunnen haken. (En mogelijk zagen ze het zelfs als een potentiële extra bron van inkomsten)
Een gereedschapmaker zal ook maar beperkt onderzoek doen naar metaallegeringen. Maar ze zullen nieuwe legeringen wel gebruiken, en die techniek goed volgen.
Als die gereedschapmaker en alle andere gereedschapmakers ervan overtuigd zijn dat het maken van De Ene Hamer de hele wereld voor altijd gaat veranderen en dat de eerste die hem ontwikkelt de winnaar is, zouden ze dan niet alles op alles zetten om dat te bereiken, in plaats van aan de zijlijn toekijken wat anderen doen, hopende dat er toevallig net dat ene ontbrekende materiaal wordt ontwikkeld door iemand die geen gereedschap maakt?

[Reactie gewijzigd door vickypollard op 23 oktober 2025 08:35]

Er is een verschil tussen 'fundamenteel metallurgisch onderzoek' (fundamenteel AI-onderzoek), en onderzoek naar 'de optimale hamer'. (de Super-AI). Het één kan uiteraard niet zonder het ander, maar dat wil niet zeggen dat je als gereedschapsmaker je daarmee bezig moet houden.

Ik snap uiteraard wat je bedoelt, en je hebt ook een zeer valide punt, (want uiteraard was m'n analogie niet volledig kloppend (zoals de meeste)) maar ik geloof ook wel in de intelligente mensen bij Meta. Ik verwacht dat zij prima hebben nagedacht over dit onderwerp.

Kijk bijvoorbeeld naar Apple. Die heeft, in elk geval publiekelijk, niet heel veel aandacht gegeven aan 'fundamenteel onderzoek' op AI, maar ze zijn echt wel bezig om AI-technologie toe te passen in hun technieken. (en dan even los van wat we ervan vinden dat er uit is gekomen tot dusver ;) )
Is eigenlijk al raar dat er meer dan 600 mensen werken aan één specifieke zaak: fundamenteel AI onderzoek... Dat lijkt me eerder iets waar een team van max 10 personen gelijktijdig aan kan werken.
Maar in de USA werkt dat allemaal een beetje anders dus ( aannemen en ontslaan is daar ook zeer eenvoudig)
zou fundamenteel AI-onderzoek, met focus op veilig en verantwoord AI-gebruik, minder in trek zijn geraak
Tja, het blijft een bedrijf van Mark Zuckerberg, ethisch ondernemen levert veel minder geld op dan onethisch


Om te kunnen reageren moet je ingelogd zijn