'Meta wil nieuw AI-onderzoekslab starten in jacht op superintelligentie'

Meta wil een nieuw AI-onderzoekslab starten, zo schrijft de New York Times op basis van vier bronnen. Het socialemediabedrijf wil daar onderzoek doen naar superintelligentie: een voorlopig hypothetisch AI-systeem dat meer capaciteiten heeft dan het menselijke brein.

Meta hoopt Alexandr Wang als werknemer te strikken voor het nieuwe lab. Het bedrijf is met de 28-jarige ondernemer in gesprek om miljarden dollars in zijn in 2016 opgerichte bedrijf Scale AI te investeren. In ruil daarvoor zou hij samen met meerdere werknemers van Scale de overstap maken naar Meta. Onder meer OpenAI en Microsoft zijn klanten van Scale AI.

Het moederbedrijf van onder meer Facebook, Instagram en WhatsApp heeft naar verluidt ook zeven- tot negencijferige bedragen geboden aan tientallen onderzoekers van grote AI-bedrijven als OpenAI en Google om de overstap naar Meta te maken. Sommigen hebben dit aanbod ook geaccepteerd. Hoeveel mensen de overstap precies hebben gemaakt, is niet bekend.

Volgens twee bronnen van de New York Times heeft Meta te kampen met interne managementworstelingen, personeelsverloop en meerdere tegenvallende productreleases. Recent hebben meerdere werknemers de AI-divisie van het bedrijf verlaten vanwege 'een slopend tempo van productontwikkeling, onderlinge strijd tussen teamleiders en een krappe arbeidsmarkt.'

Meta bracht in april drie nieuwe versies van zijn Llama-model uit. Tijdens de presentatie claimde ceo Mark Zuckerberg dat de modellen gelijkwaardig of beter presteerden dan vergelijkbare modellen van OpenAI en Google. Later bleek echter dat Meta een aparte versie van Llama gebruikte om hoog te scoren in benchmarks. NYT schrijft nu op basis van twee bronnen dat Zuckerberg 'verontwaardigd' was dat mensen dachten dat hij de slechte prestaties van de nieuwste release probeerde te verdoezelen.

Door Imre Himmelbauer

Redacteur

10-06-2025 • 12:23

41

Reacties (41)

41
41
12
1
0
25
Wijzig sortering
Ik ben erg benieuwd of ze daadwerkelijk een intelligent systeem willen maken of dat ze een systeem willen maken dat intelligent lijkt zoals een taalmodel.
META wil geld verdienen, er is verder geen andere drijfveer. Het artikel gaat vnl. over het wegkopen van experts bij andere bedrijven.
Ik begrijp je reactie niet helemaal. Het blijft toch interessant waarvoor META die mensen zoekt ongeacht de drijfveer?
jij vraagt je af wat hun drijfveer is, echte if neppe intelligentie.Ik denk dat ze dat geen bal uitmaakt zolang het geld oplevert. Of ik snap je opmerking niet?
In het artikel staat dat Meta een superintelligentie wil ontwikkelen. Mijn reactie ging over wat ze willen maken, niet waarom.
ah, overheen gelezen !wat is nou weer ee superintelligentie?
Jah, na het Metaverse debacle dat hun 46 miljard virtuele dollar gekost heeft...
Als je het verschil niet merkt wat maakt het dan uit.
Iets of iemand die/dat intelligent lijkt is een risicootje lijkt me, omdat de output onbetrouwbaar is. Iets of iemand die/dat intelligent IS, daar heb je echt wat aan. Het is wat ik veel merk met LLM's als ze me helpen met bijvoorbeeld Excel of code: heel stellig beweren dat iets waar is, terwijl het keihard onwaar is. Als je daarop wijst, ziet zo'n LLM de fout en herstelt het. Maar als het intelligentieniveau boven dat van de mens ligt, hoe weet je dan dat het antwoord fout is?
Net als nu: zeggen dat het niet klopt, en als hij dan vol blijft houden zal het wel kloppen he.

Wat heb je aan antwoorden als je ze toch niet kunt begrijpen?
wat heb je aan antwoorden als je ze niet kunt begrijpen? potentieel niets maar potentieel heel veel.

als je vraagt naar welk land moet ik vluchten om de komende 10 jaar niet in een oorlog te komen, dan kun je misschien niets snappen van een antwoord dat zo goed geo-politiek onderbouwd is dat het je de grootste kans geeft veilig te blijven, al zul je het zelf nooit op waarheid kunnen schatten, het kan het wel gegeven worden en als je op basis van het antwoord een YOLO doet, kan dat heel goed uitpakken.

zelfde met welk aandeel moet ik in investeren, of: is het op dit moment een goed moment om een huis te kopen. het antwoord "het is altijd een goed moment om een huis te kopen als je het vergelijkt met huren" kan niet iedereen snappen, maar als ze op basis daarvan overtuigd worden en ze toch dat huis komen dan pakt dat eigenlijk (zelfs op de top van 2008) uiteindelijk altijd goed uit en wordt er waarde opgebouwd èn minder uitgegeven dan als men zou huren.
Waarom zou je dan ooit een vraag stellen? Volgens jouw logica weet je ofwel het antwoord zelf ook wel, of je kan er toch niks mee 8)7
Ofwel precies als een mens dus, want ook van een mens kun je niet vertrouwen of wat ze zeggen wel klopt en vaak genoeg keihard onwaar is.
En hoe is het nu anders met een antwoord van iemand die zogenaamd intelligenter lijkt te zijn als dat anderen zijn en dus ook niet weten of het antwoord klopt, dat antwoord wordt dan dus door anderen gestaafd.
-

[Reactie gewijzigd door HerrPino op 10 juni 2025 13:26]

Een LLM heeft geen verbeeldingskracht zoals het menselijk brein. Het kan zich niet daadwerkelijk iets visualiseren of een concept ontdekken dat fundamenteel nieuw is. Een nieuwe natuurkundige theorie zal het niet ontdekken. Een LLM getrained op natuurkunde van voor Einstein zal het concept ruimte-tijd, dat ze relatief zijn en ze een flexibel geheel vormen niet zomaar even 'bedenken'.

In het kort: een LLM interpoleert (daar is het een meester in), het menselijk brein kan extrapoleren en abstraheren.
Nouja, verbeeldsingskracht? Kijk rond en er zijn genoeg mensen die ook geen verbeeldingskracht hebben. En valt een nieuwe natuurkundige theorie echt onder verbeeldingskracht of gewoon een beperking van wat een mens wist maar iemand eindelijk wel door kreeg hoe het zit (wat niet perse verbeeldingskracht nodig heeft)?
Met jouw stelling zou AI dus ook geen nieuwe medicijnen of uitvindingen kunnen doen, terwijl dat ze dat inmiddels wel doen.
Een mens is ook niets meer dan een biologische computer/robot, ook puur wat electronische signalen die heen en weer gaan, alleen nog wel wat geavanceerder dan de huidige techniek die we hebben om het in zo'n compact formaat als een mens te hebben.
klopt. Uiteindelijk waarderen we dat we ergens goed in zijn, maar dat onderscheidt ons niet. Je kunt meeleven met een topschaatser die een prachtige prestatie neerzet na jaren trainen, teriwjl je natuurlijk sneller shcaatst als je bij wijze van sprreken een straalmotortje gebruikt. Maar dat is niet geen prestatie meer. Een AI kan meer dan een mens kan op veel vlakken (inclusief uit zijn/haar nek lullen met veel overtuigingskracht). Het is het zoveelste hulpstuk dat we gebruiken als mensheid. Misschien groeit het ons boven het hoofd, maar oook dat is niet nieuw
Op dit moment heeft een AI nog wel wat menselijke sturing nodig om bijvoorbeeld medicijnen uit te vinden. Het is niet zo dat de AI uit zichzelf een dergelijke vraagstuk op zich neemt en zelf verzint wat daar voor nodig is.

Een AGI (Artificial General Intelligence) zou dat misschien wel helemaal uit zichzelf kunnen gaan doen. Dus: zelf een probleem signaleren, zelf oplosingsmogelijkheden uitdenken en die dan ook zelf uitvoeren.
Een LLM getrained op natuurkunde van voor Einstein zal het concept ruimte-tijd, dat ze relatief zijn en ze een flexibel geheel vormen niet zomaar even 'bedenken'.
Ja, maar de andere natuurkundigen in de tijd van einstein konden dat ook niet, dus wat is je punt?
Een LLM heeft geen verbeeldingskracht zoals het menselijk brein. Het kan zich niet daadwerkelijk iets visualiseren of een concept ontdekken dat fundamenteel nieuw is. Een nieuwe natuurkundige theorie zal het niet ontdekken. Een LLM getrained op natuurkunde van voor Einstein zal het concept ruimte-tijd, dat ze relatief zijn en ze een flexibel geheel vormen niet zomaar even 'bedenken'.

In het kort: een LLM interpoleert (daar is het een meester in), het menselijk brein kan extrapoleren en abstraheren.
Totdat het iets hallucineert wat, bij nader inzien, toch blijkt te kloppen.
[...]

Totdat het iets hallucineert wat, bij nader inzien, toch blijkt te kloppen.
Gebaseerd op trainingsdata die grotendeels waarheden bevat zal een LLM relatief veel dingen beweren die waar zijn, maar voor een LLM is dat hetzelfde als wanneer het hallucineert. In beide gevallen is het interne proces vd LLM hetzelfde.
Helaasis dat niet juist. Mensen kunnen niks verzinnen dat niet al bekend is bij hen. Creativiteit komt voort uit al bekende kennis. Wel kunnen ze verbindingen leggen die onlogisch zijn en daarmee iets volstrekt nieuws bedenken. Het is een kwestie van tijd voordat ai dat beter, sneller en uitgebreider kan. Simpelweg omdat de database veel groter is dan die van mensen en hun rekenkracht en zoeklracht veel sneller.

[Reactie gewijzigd door Eleuth op 14 juni 2025 16:46]

Natuurlijk maakt dat uit, dat is dus het drama. Wij zijn zelf niet goed in staat om te zien of iets waar is of niet, dat halen we uit de overtuigendheid van het antwoord. Als een LLM steevast zou zeggen: "domme lul, weet je dat nou nog niet" en dan een antwoord geven, zouden we dat niet geloven, want we voelen ons beledigd. Daarom zijn LLMs beleefd en vriendelijk en met een hoog bubbly gehalte, dat vinden we fijner en dan geloven we iets eerder.
Het is wel fijn als er ook nog een waarheid is, niet aleen maar meingen. Bij een LLM weet je dat dus niet.
Als je het verschil niet merkt wat maakt het dan uit.
Of je het verschil niet merkt hangt ook van jou af.
In de jaren '60 al werd dat het Eliza effect genoemd.
Omdat LLM's nu input data niet kunnen valideren. Als er maar genoeg mensen zeggen dat iets waar is in de training set herhaalt de LLM dat vrolijk.
Wij mensen kunnen daadwerkelijk dingen observeren, testen en elkaars werk controleren. Tot nu toe kunnen LLM's alleen maar kijken of de tekst aannemelijk is.

Het gevaar is dat nu mensen al LLM antwoorden voor waar aannemen. Als de systemen nog beter worden in mensen overtuigen van een foutieve waarheid kan dat grote problemen veroorzaken.
Mensen nemen lulkoek van andere mensen ook voor waar aan en hebben geen zin om wat dan ook te controleren.
Ik zie echt geen probleem.
Een werkelijk intelligent systeem? Dan zijn ze wrs. nog wel even bezig...
Apple said in a paper published at the weekend that large reasoning models (LRMs) – an advanced form of AI – faced a “complete accuracy collapse” when presented with highly complex problems.

It found that standard AI models outperformed LRMs in low-complexity tasks, while both types of model suffered “complete collapse” with high-complexity tasks. Large reasoning models attempt to solve complex queries by generating detailed thinking processes that break down the problem into smaller steps.

The study, which tested the models’ ability to solve puzzles, added that as LRMs neared performance collapse they began “reducing their reasoning effort”. The Apple researchers said they found this “particularly concerning”.

Gary Marcus, a US academic who has become a prominent voice of caution on the capabilities of AI models, described the Apple paper as “pretty devastating”.
En...
Referring to the large language models [LLMs] that underpin tools such as ChatGPT, Marcus wrote: “Anybody who thinks LLMs are a direct route to the sort [of] AGI that could fundamentally transform society for the good is kidding themselves.”
Artikel: https://www.theguardian.com/technology/2025/jun/09/apple-artificial-intelligence-ai-study-collapse

De paper: https://ml-site.cdn-apple.com/papers/the-illusion-of-thinking.pdf

[Reactie gewijzigd door Baserk op 10 juni 2025 15:25]

Is Alexander Wang het nieuwe Elon Musk type figuurhoofdje dat zogenaamd supergenie is en alles op komt lossen? Zelfrijdendedenkde AutosAI in 2027 jongens.
He qualified for the Math Olympiad Program in 2013, the US Physics Team in 2014, and was a USACO (International Olympiad in Informatics) finalist in 2012 and 2013. Nee dus deze man heeft duidelijk aangetoond een genie te zijn in tegenstelling to Musk die meer een Alex Jones (praatjesmaker) achtig figuur is maar dan met een natuurkundige achtergrond.

[Reactie gewijzigd door ADR3 op 10 juni 2025 12:46]

Hij heeft bewezen goed te kunnen rekenen.. Ik vind dat niet hetzelfde als genie zijn. Voor "genie" is het meer van belang om bepaalde inzichten te hebben. Daar hoef je niet noodzakelijk goed voor te kunnen rekenen.

Laten we zeggen dat Wang zeker wat in zijn mars heeft.
Laten we ook niet uitvlakken dat hij de jongste miljardair ooit is. Dat is ie niet geworden omdat hij alleen maar "goed kan rekenen". https://www.forbes.com/profile/alexandr-wang/#:~:text=Real%20Time%20Net%20Worth&text=Wang%2C%20just%2025%2C%20is%20the,%2Dand%2Danswer%20site%20Quora.
Dit zei men ook over Musk. Later kwam uit dat zijn vader een bloedsmaragden mijn had en dat hij zijn centjes niet verdiende met het oprichten van PayPal of Tesla maar met het investeren van pappa's geld in deze bedrijven. Zelfde met Gates. Elke keer hetzelfde verhaaltje met deze "superslimme" tech bro's.
Dat heeft nergens iets mee te maken. Dat is meer een functie van de markt. De huidge vraag, durfkapitaal en wat niet.

Neem voorbeelden als Gates, de man is niet dom, maar hij was gewoon de juiste man op de juiste plek op dat moment. Niets geniaals aan, meest mazzel. Zelfde voor Jobs. De hele markt bewoog richting het concept smartphone, maar hij was de eerste die met een product kwam. Mazzel.
crypto figuren net zo. Ze claimen allemaal een "magische" formule, maar het is niets anders dan mazzel en geluk en wellicht wat markt begrip (en een flink stuk oplichting vaak).

En geld maakt je duidelijk geen genie. Zie Trump, Musk etc etc etc.

[Reactie gewijzigd door bzuidgeest op 11 juni 2025 10:49]

He qualified for the Math Olympiad Program in 2013, the US Physics Team in 2014, and was a USACO (International Olympiad in Informatics) finalist in 2012 and 2013. Nee dus deze man heeft duidelijk aangetoond een genie te zijn in tegenstelling to Musk die meer een Alex Jones (praatjesmaker) achtig figuur is maar dan met een natuurkundige achtergrond.
Ik vind dat je Musk hierin wel tekort schiet. Ja, hij is een tikkeltje gestoord, met name de laatste jaren, maar is zeker wel een slimme gast die kennis van zaken heeft. Vergeet niet dat hij vanaf Paypal heel wat heeft weten op te bouwen.

Ik denk dat met name de combinatie van durfinvesteerder en ondernemer hem groot heeft gemaakt, niet zijn praatjes of alle dingen om hem heen.

Hij is niet vergelijkbaar met Alexander Wang, want die zal minder goed op twee punten scoren maar wel op de hardcode techniek.
Musk heeft wel het een en ander bij elkaar gelogen om dingen voor elkaar te krijgen... Dat is nou niet bepaald slim.
Musk heeft wel het een en ander bij elkaar gelogen om dingen voor elkaar te krijgen... Dat is nou niet bepaald slim.
Is liegen per definitie dom? Dat het niet acceptabel is, is een ander verhaal. Maar ken je het gezegde leugentje om eigen bestwil?
Dit is geen leugentje om bestwil: "Investor support is confirmed".
9 cijferig. Dat betekent dus >100.000.000. Honderdmiljoen dollar voor het maken van een overstap van bedrijf naar bedrijf. Je zal wel heel sterk moeten geloven in het doel van de organisatie waar je nu voor werkt om níet die overstap te maken.
Mooi voor iedereen die zich bevindt aan de top van AI, wij als de rest kunnen er verder vrij weinig mee.
Dat gaat zelden direct naar 1 persoon. Dat is salaris plus budget voor een aantal jaren waarschijnlijk.
Probleem mbt inschatten hoe dichtbij/haalbaar general- dan wel super-AI is, is dat de handvol AI bedrijven die zeggen dat het wel dichtbij is, veel meer in het nieuws zijn dan AI bedrijven die van mening zijn dat het niet dichtbij is. Idem met beweringen over hoe goed de huidige LLM's zijn. Zo ontstaan makkelijk een overdreven positief beeld/verwachting.
Als je er wat dieper in duikt ontdek je dat het maar een handvol AI bedrijven en onderzoekers is die AGI (en in dit geval meer-dan-AGI) 'hypen' en dat een meerderheid desgevraagd zegt dat het volgens hen nog erg ver weg is. Bedenk je dat werven van investering/reclame/PR niet werkt op basis van "desgevraagd".
https://www.youtube.com/@MachineLearningStreetTalk

[Reactie gewijzigd door BadRespawn op 11 juni 2025 21:19]

Even kijken. Hoe bouw je echte intelligentie na? Niet dat slappe gedoe met taalmodellen. Wat is eigenlijk de definitie van intelligentie?

Als je een super intelligentie wilt bouwen, moet je dan eerst niet snappen hoe intelligentie werkt voordat je super wordt?

Waarop is dat eigenlijk gebaseerd, intelligentie? Oh, op de menselijk hersenen. Niet die van een dolfijn?

Nee? Ok.

Hoe werken de menselijk hersenen dan eigenlijk precies en in navolging daarop bewustzijn? Oh, weten we dat helemaal nog niet eigenlijk.

Ok. Maar je denkt het wel te kunnen gaan nabouwen? Met processoren die alleen loops en if-then aankunnen? Sterker nog, je gaat het zelfs super maken?

Me dunkt dat, zoals bepaalde wetenschappers al aangeben met LLM's, ze aan een nieuw dood paard hopen te gaan trekken. Het geld is toch aantrekkelijk, nietwaar?

P.S. Niet dat ik het allemaal wel weet, maar als het in de wetenschap niet bekend is of dat er geen consensus over is ..... nou ja.

[Reactie gewijzigd door Hatseflats op 11 juni 2025 03:49]


Om te kunnen reageren moet je ingelogd zijn