'Apple heeft eigen groot AI-model dat mee kan met ChatGPT'

Apple heeft een groot AI-model dat mee zou kunnen met recente versies van ChatGPT, zo beweert financieel persbureau Bloomberg. Dat werkt niet lokaal, in tegenstelling tot vrijwel alle functies van Apple Intelligence. Het bedrijf doet voorlopig niets met dat model.

Het model heeft 150 miljard parameters en is daarmee veel groter dan het 3 miljard parameters tellende lokale AI-model voor Apple Intelligence, meldt Bloomberg. Het zou daarmee een eigen AI-chatbot kunnen maken, maar het bedrijf heeft vooralsnog besloten dat niet te doen.

Dat heeft twee redenen. Ten eerste heeft Apple zorgen over hallucinaties, een probleem waar alle AI-modellen mee kampen en recentere meer dan eerdere versies. Ten tweede zijn er filosofische verschillen van inzicht tussen diverse directieleden over de richting die Apple op moet met AI. Bloomberg vermeldt niet waar die verschillen in zitten. Het grote AI-model werkt vanaf een server, net als ChatGPT van OpenAI en Anthropic Claude bijvoorbeeld. Apple Intelligence richt zich meer op AI-functies die zonder internetverbinding werken.

Apple heeft niet gereageerd op de informatie. Het bedrijf heeft volgende week zijn ontwikkelaarsconferentie WWDC, waar het mogelijk nieuwe AI-functies bekendmaakt. Een daarvan is volgens Bloomberg de mogelijkheid voor ontwikkelaars om het lokale AI-model te gebruiken voor eigen functies binnen apps.

Apple Intelligence
Apple Intelligence

Door Arnoud Wokke

Redacteur Tweakers

02-06-2025 • 17:56

53

Reacties (53)

53
53
23
3
0
19
Wijzig sortering
als apple echt hard uit de hoek wil komen dan graag een model dat draait op de hardware die ik in mijn zak heb zitten, dat zou pas een iphone 2.0 momentje zijn.

Een soc in telefoon met bv 32gb unified memory. een update van het model wordt dan gewoon gepushed met de updates.
of beter nog een aantal verschillende modellen waaruit je zelf kan kiezen.

[Reactie gewijzigd door klakkie.57th op 2 juni 2025 18:52]

Het leuke aan een LLM model hebben is dat het het makkelijker maakt om een kleiner model ermee te trainen. Bijvoorbeeld deepseek releasede niet alleen hun grootschalig model deepseek R1, maar ook verscheidene andere kleinere modellen die ze kunnen "extracten" uit het grotere model die dan veel beter zijn dan dergelijke kleine modellen op zichzf trainen. (Vraag me niet hoe het exact werkt)
Distillation is de term.

Alhier een voorbeeld met code hoe het in z'n gang gaat met een image classifier (MNIST digits handgeschreven cijfers als dataset)

https://colab.research.go...wledge_distillation.ipynb

tl;dr: tijdens trainen van het kleine model neem je bij het bepalen van de fout die het model maakt, ook het oordeel van het reeds getrainde grote model mee.
Je bedoelt dat je het prima vind als de accu na 2 uren leeg is? Ik had begrepen dat een LLM draaien heel veel energie kost.
Hoe intensiever ik ChatGPT gebruik hoe kleiner ik die kans acht. En hoe groter ik de kans acht dat Apple een onoverkoombare achterstand opbouwt door hun AI aanpak niet breed beschikbaar te maken en zo verder te kunnen trainen.
Is het dan zo makkelijk, als je geld hebt, om een model te ontwikkelen? Wat is dan nog de waarde van OpenAi?
OpenAI doet research naar nieuwe soorten modellen en optimalisaties. Dat nadoen is niet lastig, maar eentje moet de eerste zijn.

Apple kan écht niet mee in de race, maar kan prima genoeg geld investeren om bij te blijven. Al twijfel ik ook daar aan, want Apple Intelligence is tot zover alleen maar teleurstelling.
Apple kan écht niet mee in de race
Really ? Apple publiceert al jaren machine learning research papers. De eerste paper in de lijst - "streamspeak" - ze hebben het daar voor elkaar om de latency naar 4 milliseconden te krijgen op het moment dat je praat, dat zijn zaken waar user experience om vraagt.

Ze volgen hun eigen pad, API's of chatbots "als platform" zijn niet hun doel. Dingen on-device doen en ook nog relatief nuttig met goede grenzen er om heen is de echte uitdaging.
Ze volgen hun eigen pad,
Ja daar is apple intelligence een fraai voorbeeld van.
Het is ook een faal, maar een van de headlines onlangs was dat de oorzaak van het brakke Siri en Apple Intelligence is dat ze (gehaast) het oude Siri en het nieuwe LLM-powered Siri hebben geprobeerd samen te voegen en het daardoor niet fatsoenlijk werkt. En aan de oorzaak van het falen omtrent deze vlakken lagen zowel topmensen (AI fout ingeschat met als gevolg een late inhaalslag) als middle management (de bureaucratie van lagere managers die alleen voor hun eigen bonus en promotie werken (korte termijn), niet voor het belang van het product en bedrijf (lange termijn)).

Kortom Tim Cook is geen mensenmanager en hij lijkt niet iemand te hebben (gezocht, laat staan) gevonden die hem daarin aanvult. Hij schatte LLMs ook verkeerd in en luisterde daardoor naar de verkeerde topmanager. Dat betekent niet dat privacy respecterende on-device oplossingen niet kunnen werken, het betekent dat het management faalt en dat interne bedrijfsbureaucratie succes in de weg zit.
Ik denk dat ze het helemaal niet fout hebben ingeschat. De werkelijke waarde van LLM modellen voor consumenten is nihil, in de smartphone wereld zie je ook nog geen wonderen gebeuren qua marktaandelen. Daarnaast zie je dat qua competitie men nog lang niet is uitgespeeld dus Apple heeft nog wel de tijd om een mooi bedrijf op te kopen.
De werkelijke waarde van LLM modellen voor consumenten is nihil
Het is zo nihil dat… het Aantal zoekopdrachten via Google in Safari daalt door gebruik van AI-chatbots. Vrijwel elke tiener, laat staan de gemiddelde persoon, heeft ChatGPT op hun smartphone voor hulp met huiswerk, om dingen op te zoeken of omdat ze zich eenzaam voelen. ChatGPT is nog steeds wereldwijd de meest gedownloade gratis app, #1 in de App Store voor zowel iPhone als iPad, met een 4,9/5 gebaseerd op 2,6 miljoen ratings en globaal op beide platforms met 33% meer downloads in april dan #2 TikTok of #3 Instagram (volgens de oorspronkelijke bron "new downloads" en dat klinkt als 'niet updates', maar dat vind ik eigenlijk een lastig te geloven getal). LLMs zijn ongetwijfeld allang een van de meestgebruikte voorzieningen op smartphones, ook omdat ze je vrijwel overal van kunnen voorzien.

De meeste mensen zijn vrij bagger als het aankomt op zoekmachines gebruiken en zelfs als je dat niet bent kan een bepaalde ongelukkige formulering je vrijwel geen goede resultaten bieden. Als je denkt dat {chatty LLMs die kunnen interpreteren wat je precies wilt of vraagt en je precies dat en nog meer bieden dan je verwacht} totaal niet van waarde zijn voor consumenten, dan krijg ik het vermoeden dat je nog niet iemand ChatGPT hebt zien gebruiken buiten een werkomgeving. Of andersom: probeer eens een week om niets te zoekmachinen en alleen nog queries en vertalingen naar ChatGPT te sturen. Gebruik niet je weerapp, gebruik niet je nieuwsapp, gebruik niet je x, y, z, maar gooi het in die ene app. Een beetje fatsoenlijk in een telefoon ingebouwd kun je het interactief gebruiken om rijke agenda items aan te maken en meer. Vraag jezelf dan nogmaals af of de waarde nihil is voor gewone gebruikers.

Wat dat betreft dacht Tim Cook er hetzelfde over als jij en daarom is Apple nu al een paar jaar volledig in paniekmodus op dit front en willen ze te veel, te snel. Microsoft verloor de strijd om de smartphone op een fatale wijze omdat ze een vergelijkbare misvatting hadden over technologie, Apple vindt achterlopen en het goed doen niet erg, maar een Microsoft-level flater kan ze de toekomst kosten.

[Reactie gewijzigd door Blizz op 3 juni 2025 20:42]

Je moet meenemen wat de eisen zijn die Apple oplegt. Daar gaat het artikel juist over: ze kunnen openai nadoen maar dat zou te koste kunnen gaan van principes/bedrijfsbelangen van Apple.

Het zal interessant zijn welke kan ze op gaan en hoe. Want ze hebben met Apple Silicon ook een belangrijke troef in handen die de concurrentie niet heeft. En dat zou ze als een van de weinige minder afhankelijk kunnen maken van nVidia, dus lagere kosten om een indrukwekkende LLM te draaien. Dàt is denk is het unieke van Apple. Ze zullen altijd voor winstmaximalisatie gaan, als ze niet geloven dat ze dat zelf kunnen kopen ze de dienst gewoon in.
Makkelijk niet, maar met een hoop geld kom je een eind. Het is echter zoveel geld dat niet elk bedrijf even een eigen top model maakt. Daar zit de markt voor een partij als OpenAI, bedrijven die er niet miljarden tegenaan kunnen smijten.

Nou is geld ook niet alles, er is ook enige mate van innovatie nodig om met nieuwe functies te komen (of je de innovaties ook zelf bedankt of niet maakt enkel uit voor hoeveel belang je hecht aan de eerste zijn). Met geld meer rekenkracht inzetten zorgt dat je grotere modellen kan maken en draaien en dat maakt modellen over het algemeen beter, maar voor nieuwe functies of doelen moet je ook geld tegen ontwikkelaars aangooien. Daar is ook een bepaalde bedrijfscultuur en organisatie bij nodig. Maar wederom kan je ook daar een hoop forceren als geld geen issue is.

Voor elk bedrijf is geld echter wel een issue, er kunnen niet tientallen miljarden tegenaan gesmeten worden zonder er wat voor terug te zien. Vaak moet er op een gegeven moment winst gemaakt worden, of soms met externe financiers een bepaald ander belang (bijv. vooruitgang bij defensie of zorg waar de winst zich niet altijd makkelijk in euros laat uitdrukken).
Is dat echt een vraag? Als ik genoeg geld heb kan ik ook een eigen wagen bouwen. Ja, wat is dan nog de waarde van Audi? Of van Nike? Of van Sony? Of van RTL?
Naja, voor 6 miljoen produceer jij geen auto die door de massa gebruikt kan worden. Blijkbaar kan dat nu wel voor een ai model.

Voor de top-500 bedrijven is dat echt peanuts, dus inderdaad: Wat is dan de waarde? De vraag is wel terecht m.i.
En waar slaat die 6 miljoen op?
De waarde van de compute nodig om Deepseek v3 te trainen.
Ik vermoed dat je met de 6 miljoen doelt op de "trainingskost" van DeepSeek.

Hier wil ik wel even op aanvullen dat het zo stellen echt absoluut niet vergelijkbaar is. Dit is inderdaad de kost (qua uren GPU gebruik) voor de laatste training. Echter zit hier jaren aan onderzoek vooraf, meerdere mislukte trainingspogingen, data verzameling, .... Dit al dan niet in samenwerking met door de overheid gesponsorde universiteiten. Stellen dat je met 6 miljoen DeepSeek kunt bouwen slaagt dus wel echt op niks.

Nu geef ik toe dat een (relatief simpel) AI model trainen voor een bedrijf als Apple uiteraard niet onmogelijk is. Echter is een top model als Gemini 2.5 pro of ChatGPT o3 echt nog wel even een ander niveau.

Het nadoen van een ander is ook altijd vele male simpeler dan als voorloper met nieuwe innovatie komen.

Mijn ervaring is: eerst zien en dan geloven. Dus we zullen zien wat ze volgende week aankondigen.

[Reactie gewijzigd door combolster op 3 juni 2025 11:35]

De waarde van het nieuwsbericht is wel bijna niets. Het gaat om een quote van iemand die zegt dat ze een model hebben. Laat het model zien en dan is het nieuwswaardig

een grootte van een model zegt weinig laat maar gewoon zien hoe goed hij is.
Maar volgende week is de keynote van Apple en dat moet wel reuring geven zodat we weer wat geloof krijgen na het fiasco van vorig jaar.
Het is een publiek geheim dat Apple nu ondersteuning heeft ingebouwd voor ChatGPT omdat het zelf nog niets heeft dat kan tippen aan dat van OpenAI. Op een later moment wisselt Apple simpelweg naar een eigen model wanneer zij er klaar voor zijn om de concurrentie aan te gaan.

Deze situatie doet denken aan Google Maps op iPhones. Destijds was het vanzelfsprekend dat deze app standaard meegeleverd werd met iOS en ineens was het afgelopen vanwege de introductie van Apple Maps.
Ik had niet de indruk dat OpenAI een gebrek aan geld heeft.
Iedereen claimt LLM's te hebben op het niveau van OpenAi. Dit staven ze meestal met standaard benchmarks. Ik maak persoonlijk erg intensief gebruik van LLM's. Ik benchmark LLM's van andere aanbieders regelmatig met mijn eigen praktische use-cases. Ik test dan een ander LLM, met een taak die ik ChatGPT al een keer heb uitgevoerd. Het valt bijna altijd behoorlijk tegen. Alleen het nieuwe Claude Opus 4 begint nu echt serieus waardevol te worden voor sommige van mijn use-cases.


Ik denk dus dat OpenAi nu nog heel serieus voor loopt. Zeker als je thuis bent in de modellen, is de verzameling van tools die je hebt echt fantastisch. Het switchen tussen modellen gaat ook steeds beter. Een onderzoek met deep research, samenvatten met o3, en dan exporteren naar een word bestand met 4o.

nb: Ik heb het Pro abbo, dus dat betekent dat ik bijna ongelimiteerd gebruik kan maken van de beste modellen.

[Reactie gewijzigd door Emielio op 2 juni 2025 19:57]

En dan nog steeds “betekent” met een d schrijven :)
Als het zo makkelijk is dan is Europa aan het slapen. Je hebt Mistral en allerlei "kleine" projectjes als gpt-nl. Ik mis juist daarin dat er flink wat miljarden worden geïnvesteerd ipv miljoenen.
Ik moet de echte "kracht" nog ervaren. Ik gebruik het om te programmeren, dat werkt. maar je MOET ALLES controleren. Python code is vaak een rommeltje met indent of syntax errors. Soms gaat het ook vloeiend, maar het is heel moelijk om iets nauwkeurig werkend te krijgen, het lijkt ook wel een beetje aan de resources te liggen het ene moment gaat het prima, dan weer heel slecht.

Hoewel chatgpt toegang heeft tot projectfiles en de chats, doet ie daar he le maal niks mee, totdat je dat expliciet vraagt. Daarmee werken de prompts niet of niet nauwkeurig. Ik werk er dagelijks mee, een aantal uur per dag al sinds 6 a 7 maanden, het zal de doorgewinterde developer niet verslaan (en dat duurt ook nog wel even), behalve dan in snelheid.
Je moet het ook zien als een betere intellisense autocomplete, niet als iets dat code schrijft zelf
Ja, maar dat kan het wel degelijk. Ik heb het al eerder vermeld hier, ik heb een complete AI integratie gemaakt.
1: Ollama
2: fastapi
3: ChromaDB voor long term memory (leren en vergeten)
4: RAM voor short term memory (converseren)
5: Timer/Date/Time
6: HA integratie als mediaplayer
7: Modulair
8: Voice activity detection (werkt niet goed)
9: Beam forming voor de mic's (werkt niet goed)
10: Werkt volledig Offline
11: Integratie met Whisper.cpp
12: LED signalering (spraak/passive/error, dat soort dingen)
13: Toekomst, herkennen van personen en locatiedetectie in huis, zodat je makkelijk kan vragen, doe de lampen aan en de microfoon die dat oppikt (in die kamer ben je dan) Het werkt dus met kleine satellieten.
14: loopbackdetectie/filter

En dat alles omdat me de wyoming satellite software niet beviel....

en ik vergeet nu nog vast wel wat. Maar daar heb ik dus zonder python kennis aan gewerkt en het werkt! Sinds vandaag heb ik dus een versie die

[Reactie gewijzigd door O085105116N op 2 juni 2025 18:51]

Sinds vandaag heb ik dus een versie die
zelfstandig tweaker comments plaatst?

[/kon het niet laten...]
hahaha, ja ik werd onderbroken denk ik. Ik heb een versie die ik kan deployen over de satellieten die ik in huis heb staan en kan gebruiken.
Wij doen ook een hoop met AI op het werk, maar ik moet er echt nog wel vertrouwen in krijgen. Wat je hierboven schetst kan absoluut, maar heb je ook het vertrouwen dat de code op elk punt doet wat het moet doen? En heeft de AI ook de scenario's afgedekt met tests?

Volgens mij is dit net als met zoveel dingen. Je moet er een hoop mee werken om er goed mee te worden en te weten wat je het best aan AI kunt overlaten en wat je beter zelf kunt doen. Tot nu toe is het bij mij echt nog een mixed bag. De ene keer bijzonder indrukwekkend, maar ik heb het ook net zo vaak mis zien gaan waarbij een simpele refactor door AI de simpelste stukken om zeep hielp waardoor ik uiteindelijk sneller zou zijn geweest door het zelf maar te doen. Het zal ongetwijfeld aan mijn vibe-skills liggen, maar het zorgt er wel voor dat ik nog niet vol overtuiging AI-programmeerwerk zomaar commit.
Voor mij is het maar hobby geknutsel, testen doe ik zelf, complex is het allemaal wel en vertrouwen moet je de AI zeker niet voor productiewerk. Ik commit de changes direct maar heb dan ook redelijke goede backups. Het is maar houtje touwtje wat ik doe, ik heb zelf vooral veel aan het creatieve denkproces, de architectuur bedenken en simpelweg het "doel". Persoonlijk vind ik dat ik best wel een leuk projectje heb neergezet inmiddels.
Maar, wat als de AI het niet meer doet? Ofwel de code verkloot, of stomme suggesties geeft, or zulke 'moeilijke' code gaat gebruiken dat je het zelf niet meer begrijpt, vraag je dan een andere AI om het AI-gecreëerde probleem op te lossen?

De AIs werken best top, ik gebruik ze zelf in mijn game dev projecten om voornamelijk performance optimizations mee te vinden en heel soms om wat voor me te bouwen, maar het meeste doe ik wel zelf. De AI komt er vaak wel prima mee door, en ik gebruik vaak ook meerdere AIs met dezelfde prompts om te kijken wat nou een beter antwoord geeft op dat moment, maar soms komt er redelijke troep uit en maakt hij er wel een zooitje van. Ben dan zelf wel erg blij dat ik zelf ook de code kan controleren, repareren en vooral begrijpen.

I guess tl;dr: Zorg dat je er ook direct zelf van leert, zo gebruik je voornamelijk de AI maar word je langzaam aan ook meer programmeur, wat weer goede voordelen heeft :)
Ja ik leer er zeker van. En zoals met alles, we vinden wel een oplossing.
Dan probeer maar eens GitHub Copilot in Vscode in Agent mode met Claude 3.7. Dat is echt wel krachtig.
Dat heb ik inderdaad wel voorzichtig getest, maanden geleden. Het zou bij een volgende versie idd mijn nieuwe manier kunnen zijn.
Mischien is dit een optie: https://openai.com/index/introducing-codex/

Codex is waarschijnlijk duurder maar kan wel meer.
Ik gebruik chatbots vooral waar documentatie tekort schiet of waar Google alleen maar blogposts voor beginners laat zien. Vaak zijn de snippets niet zo waardevol, maar het weten dat een import bestaat en ongeveer wat de bedoeling is wel.
Google? Ik gebruik google al helemaal niet meer.
Heb je Windsurf al eens geprobeerd? Ik had dezelfde ervaringen als jij. Maar sinds ik Windsurf gebruik, gaat het een stuk beter. In Windsurf kn je verschillende taalmodellen kiezen. Ik heb de beste ervaringen met de Claude modellen. Claude 3.7 is echt goed, kan niet wachten tot Claude 4 beschikbaar komt in Windsurf.


(Windsurf heeft 2 versies: een stand alone versie, wat een fork is van VSCode, en een plug-in voor de JetBrains IDE’s (IntelliJ, PyCharm, etc.))
Hoe verhoudt Windsurf zich tot de JetBrains AI? Daar kan je ook kiezen welk model je gebruikt (default is Claude 3.5). Ik ben daar best wel tevreden van, met de beperkingen van AI rekening houdend natuurlijk.
Ik vind Windsurf beter. Die lijkt slimmer om te gaan met het managen van de context.
Nee, ik "durf" geen uitstap te maken naar een andere omgeving. Er zit 6 maanden historie in chatgpt. Ik heb een uitstapje gedaan naar gemeni, maar dat was gewoon lelijk, hele lange sloten uitleg, slecht overzicht, weinig to the point en uiteraard geen clouu van waar ik mee bezig was. Ik hoop ooit lokaal een goede developer AI te kunnen draaien, ik heb nu een RTX4070 en die is snel voor day2day dingen, maar een llm die python kan doen, lokaal, die is er volgens mij niet. Anyway, ik heb net weer een lange sessie gehad van pak em beet 3 uur. Ik ben nu echt zaken aan het finaliseren, ik merk wel goed dat korte stukken code, focus op 1 taak en doel werken. Dat is soms wel lastig als je meerdere issue wil oplossen in 1 code blok. Maar goed, ik kan er helemaal in op gaan, dat kan ik niet met een mens, dat is voor mij dan weer een win.
Wat help bij grote projecten: vraag de LLM eerst om een plan te maken in een text file. Bewerk dat plan indien nodig en vraag het model dan steeds om een stap uit hetbplan uit te voeren.
3B models zijn best wel bagger als je dat lokaal draait. 7 tot 9 gaat, 13+ merk je verschil maar wordt het te traag voor nvidia 90s series...
Het zou daarmee een eigen AI-chatbot kunnen maken, maar het bedrijf heeft vooralsnog besloten dat niet te doen.
Ten tweede zijn er filosofische verschillen van inzicht tussen diverse directieleden over de richting die Apple op moet met AI.
Apple weet nog steeds niet welke persoon het moet worden. Daarom kunnen ze nog steeds niet kiezen.
Als ineens alle gebruikers bij zo'n model kunnen wordt het een stuk prijziger om zo'n model in bezit te hebben :)
Net als social media, wat Apple ook aan derden overlaat, brengt AI grote risico's met zich mee.

Zowel risico dat gegenereerde media reputatieschade veroorzaakt als dat copyright een astronomisch grote kostenpost kan worden. Met een klein model kom je misschien nog weg met trainen met legale content, maar state of the art grote modellen kunnen alleen maar met piraterij getrained worden.

Ze zullen modellen achter de hand houden voor als ze echt nodig zijn om te kunnen concurreren, maar zo niet zijn de kosten om het uit te besteden het meer dan waard (voor research is het veel makkelijker om fair use te claimen dan voor commercieel gebruik). Ze besteden ook een groot deel van het risico uit.

[Reactie gewijzigd door Pinkys Brain op 2 juni 2025 21:50]

Denk eraan: ook al wordt het lokaal verwerkt, de device is altijd verbonden met het interweb (onbewust). Tuurlijk werkt het ook als het niet verbonden is met het internet (anders zou men heel erg een figuur slaan), maar zolang Siri ‘er van mag leren’ en iCloud een ongeschreven regel van ‘always on’ heeft zal het gewoon lekker in de cloud worden opgeslagen.

Tot zover je privacy
Hoezo heeft iCloud een ongeschreven regel van always on? Bij het instellen van bv een iPhone krijg je de keuze of je het wilt gebruiken.
verwijderd wegens artikel niet goed gelezen te hebben...

[Reactie gewijzigd door t.w.e.a.k.e.r op 2 juni 2025 18:28]

Het zal eens tijd worden, Siri is in de 14 jaar dat het bestaat maar bar weinig intelligenter geworden. Hopelijk kan het nu wel wat meer dan een timer zetten voor het koken van een ei, wat zo'n beetje het enige is dat Siri foutloos kan.

Op dit item kan niet meer gereageerd worden.