'Apple-testers maken zich nog steeds zorgen over prestaties van AI-upgrade Siri'

Apple-werknemers die de aankomende AI-upgrade van Apples spraakassistent Siri testen, maken zich nog steeds zorgen om de prestaties ervan. Dat meldt Bloomberg-journalist Mark Gurman. De vernieuwde Siri zou al begin dit jaar moeten verschijnen, maar de release is uitgesteld naar 2026.

Apple wil de AI-aangedreven versie van Siri komende lente als onderdeel van iOS 26.4 uitbrengen, maar tot dusver zouden werknemers nog 'zorgen' hebben over de prestaties van de vernieuwde spraakassistent. Dat schrijft de doorgaans goed ingelichte Mark Gurman in zijn nieuwsbrief op Bloomberg.

De journalist verwacht dat er door Apples strubbelingen op AI-gebied de komende tijd meer leidinggevenden bij Apple zullen vertrekken. De afgelopen maanden hebben al verschillende leidinggevenden in Apples AI-divisie ontslag genomen, om vervolgens onder meer bij Meta aan de slag te gaan. Ingewijden zeggen tegen Gurman dat ze verwachten dat het hoofd van die divisie, John Giannandrea, binnenkort een 'andere rol' krijgt toegewezen en dat Apple momenteel op zoek is naar een vervanger.

Het bedrijf kondigde de slimmere versie van zijn virtuele assistent al een jaar geleden aan. Deze moet onder meer functies in apps kunnen uitvoeren. Gebruikers kunnen de assistent dan bijvoorbeeld vragen om een specifiek chatgesprek op te zoeken of om een bepaalde foto uit de telefoongalerij te vinden. Ook kan de AI-Siri onder andere webpagina's, gemiste notificaties en notulen van vergaderingen samenvatten en antwoorden op e-mails suggereren of herschrijven.

Hoewel het de bedoeling was dat de door taalmodellen aangedreven versie van Siri al begin 2025 zou verschijnen, liep de release vertraging op. Gurman zei eerder dat de AI-versie van Siri nog te veel bugs bevat en niet consistent werkt. Volgens recente geruchten overweegt Apple om de vernieuwde Siri niet langer te laten draaien op zijn eigen AI-modellen, maar in plaats daarvan op externe AI-modellen, bijvoorbeeld van Google.

Door Kevin Krikhaar

Redacteur

20-10-2025 • 07:55

80

Reacties (80)

Sorteer op:

Weergave:

Het is ondertussen overduidelijk dat Apple de AI-trein heeft gemist, en het lijkt alsof ze er achteraan aan het hobbelen zijn. Ik vraag me oprecht af, hoe het komt, dat een bedrijf met zoveel middelen, zoveel het laten vallen met de laatste tech-revolutie in opkomst.

Het is natuurlijk niet zo dat Apple niets heeft geproduceerd op AI-gebied. Alleen al op Huggingface heeft Apple, op het moment van schrijven, ondertussen 132 modellen gepubliceerd.

Er zijn in elk geval op een bepaald moment op een bepaalde plek verkeerde keuzes gemaakt en ik ben oprecht benieuwd hoe hoog in de boom dit verkeerd is gegaan. Zouden de bobo’s aan de top bijvoorbeeld gedacht hebben dat het een ‘hype’/‘gimmick’ zou worden? Of zou de marketingmolen teveel invloed gehad hebben, waardoor de techneuten opvoedende konden opleveren.

Allemaal giswerk van mij, hoor. Ik ben gewoon echt nieuwsgierig.
Ik denk niet dat ze de AI-trein missen. Ze lopen een beetje achter, maar kunnen dit probleemloos inhalen. Ze moeten alleen focussen op output ipv dogmatisch vasthouden aan hun wensenlijstje.
  • AI lokaal draaien is moeilijk.
  • Je eigen taalmodel ontwikkelen, zonder te testen op andere modellen (zoals bvb met Deepseek gedaan is) is moeilijk.
  • Toegang tot genoeg data krijgen is moeilijk
Daarnaast zijn er misschien nog specifieke zaken in de architectuur van iOS die het lastig maken.
Vergeet ook niet dat bestaande AI-modellen allemaal gebruik hebben gemaakt van materiaal waarop ze geen rechten hadden.

Iets wat door de vingers wordt gezien omdat je met geld ‘macht’ koopt.

Wanneer je echter een model wilt maken dat zich kan meten aan GPT, maar je wel aan alle wetgeving wil houden dan is het bijna niet meer mogelijk om te concurreren.
Inmiddels is de AI bubble groter dan de bubble in 2008. Omzetten van Nvidia en OpenAI en Microsoft worden kunstmatig hoog gehouden. Apple als ze het goed doen met Siri kunnen ze als enige of een van de weinigen overblijven door op een laag drempelige manier AI naar iedereen te brengen.

[Reactie gewijzigd door Skywalker27 op 20 oktober 2025 11:22]

Inmiddels is de AI bubble groter dan de bubble in 2008. Omzetten van Nvidia en OpenAI en Microsoft worden kunstmatig hoog gehouden.
Zoals uitgelegd in het volgend filmpje: YouTube: Big Tech Is Faking Revenue

Filmpje gaat erover dat veel tech bedrijven enorm veel geld aan het rondpompen zijn. Bedrijf A geeft bedrijf B 100 miljard, vervolgens komt die 100 miljard uiteindelijk weer bij bedrijf A terecht. Ik raad wel aan om de video te bekijken voor iets meer diepgang.
Als er rechtszaken komen (en ik dacht al dat er groepen zijn, zoals kunstenaars), dan komt er geen nieuwe content. Praktisch punt: universiteiten publiceren hun onderzoeken vaak wel publiek (want gefinancieerd met publiek geld). Ik ben wel benieuwd of big tech data mag blijven gebruiken (of stelen) en daar zelf vette inkomsten mee genereren.

Nu is 'vette' inkomsten voor AI nog even twijfelachtig, maar er gaan igg enorme bedragen in om. Iedere grote big-tech club wil de boot niet missen. En de ambities van openAI zijn duidelijk (Google verslaan en iedereen verslaafd maken aan de AI). De visie van Sam Altman is geen haar beter dan Google of Meta, lees bijv. (eerste hit die ik vond): Sam Altman, de "messias van AI": hoe de baas van OpenAI technologie als goddelijke missie ziet | VRT NWS: nieuws
Ik denk niet dat ze de AI-trein missen.
Dat zeg ik ook niet. Ze hebben hem al gemist en ze zijn er nu achteraan aan het hobbelen. Ze zullen hem ongetwijfeld wel inhalen en bijkomen. Daar twijfel ik niet aan, maar het wordt ondertussen natuurlijk wel genant. Google, Meta, Microsoft, X, Adobe, Oracle, IBM, enz. zijn allemaal al zwaar aan de weg aan het timmeren. Die hebben allemaal al 'echte producten' die (al dan niet :) ) toegevoegde waarde hebben voor hun klanten/gebruikers. En Apple komt niet verder dan een custom Emoji (Genmoji). (even gechargeerd natuurlijk.)

AI lokaal draaien is niet moeilijk. Verschillende Android toestellen doen het ook. Microsoft doet het ook op bepaalde laptops. Daarnaast is het helemaal niet noodzakelijk om het lokaal te doen. Gewoon een afgeschermd stuk datacentre en klaar.
  • Je eigen taalmodel ontwikkelen, zonder te testen op andere modellen (zoals bvb met Deepseek gedaan is) is moeilijk.
Apple heeft op het moment van schrijven 3 taalmodellen en 9 datasets gepubliceerd naar Huggingface. (en een totaal van ruim 130 AI-modellen) Geen idee wat die inhouden, maar op een of andere manier lijken ze het maar niet voor elkaar te krijgen om er bruikbare producten uit te persen.
  • Toegang tot genoeg data krijgen is moeilijk
Jij zegt het. Apple heeft gigantisch veel data (gezien op telefoons standaard telemetry e.d. aan staat.) Ze hebben allicht weinig persoonlijke data, maar dat mag de pret niet drukken. Je hoeft niet met 'echte klantendata' te werken om een goedwerkend AI-model te bouwen.

Buiten dat hebben ze zo achterlijk veel geld ter beschikking dat ze prima datasets kunnen kopen.
De anderen doen het ook niet zo geweldig, ze zijn alleen minder kritisch op wat ze shippen.

Bijvoorbeeld van de MS Office gebruikers zijn er maar 2% die betalen voor copilot, veel minder dan ze hadden gehoopt: https://www.perspectives....opilot-commercial-failure . Ondanks alle extreme over the top marketing "copilot copilot copilot" tot je er ziek van wordt. Ik heb het ook op het werk en ik moet ook zeggen dat het niet zo nuttig is. Ondanks dat het gebaseerd is op chatgpt is het minder goed, waarschijnlijk omdat ze meer knijpen op processing ofzo. Er zijn wat dingetjes waar ik het voor gebruik *) maar het idee dat je een echte assistent hebt, daar zijn we nog lang niet.

Apple houdt van perfectie en daar is AI nog niet. Microsoft shipt graag wat dat maar half werkt want die zijn graag haantje de voorste.

*) Waar ik het met namelijk voor gebruik is zoeken in die afvalbak die Sharepoint heet. De zoekfunctie daarvan (en van outlook) is ook redelijk waardeloos, daar komt copilot bij te pas. Het schrijven van emails gebruik ik nooit omdat het veel te "AI" klinkt. Het zou de mogelijkheid moeten hebben on mijn stijl te matchen. Anders weet iedereen meteen dat je AI gebruikt hebt en dan zien ze je mailtje als minder waardevol (ook logisch vind ik, dat doe ik zelf ook).

[Reactie gewijzigd door Llopigat op 20 oktober 2025 11:27]

Het is inderdaad interessant hoe snel de conclusie wordt getrokken dat Apple “faalt” omdat hun AI-update nog niet indrukwekkend genoeg zou zijn. Volgens mij doen ze juist iets heel verstandig: ze kiezen niet voor de kortste weg, maar voor een consistente en betrouwbare gebruikerservaring.

Apple probeert AI in te passen binnen een ecosysteem dat draait op privacy, veiligheid en gebruiksgemak. Dat betekent: minder cloudafhankelijkheid, meer on-device verwerking, en dus technische beperkingen die ze bewust accepteren om kwaliteit te waarborgen.

Hun eigen onderzoekers hebben bovendien al erkend wat veel mensen vergeten: wat we nu “AI” noemen, ontbreekt het fundamenteel aan echte intelligentie. Het is patroonherkenning, geen begrip.

Apple lijkt te hebben besloten dat halfbakken intelligentie die onvoorspelbaar reageert, niet past bij hun merk. Liever traag en stabiel dan snel en slordig. In dat licht is hun terughoudendheid geen teken van zwakte, maar van strategische volwassenheid, in mijn optiek.

Even los van dat de eerste forse barsten in de AI-bubbel zichtbaar aan het worden zijn - het laatste jaar zijn de verbeteringen die AI-modellen en toepassingen zijn marginaal, CEO's rapporteren consistent dat het nog steeds geen of nauwelijks geld oplevert en de enige die blijven beweren van wel zijn de makers van AI-hard- en software en alle zelfbenoemde CEO-fluisteraars op LinkedIn die AI als business model verkopen.
Zonder data is het niet te doen. Goed punt.
Ik vermoed dat hun privacy-first aanpak lastiger is dan ze dachten. Concurrenten geven daar geen moer om, dus dit is een extra uitdaging voor ze.
privacy-first aanpak
:D . Ja dat zal het vast zijn. Niet de bugs en inconsistentie die ze zelf melden. Daarom gebruiken ze ook niet een eigen LLM maar die van een ander....om privacy first redenen. Yeah right.
Ja, dat denk ik ook.

Apple heeft heel lang geprobeerd zoveel mogelijk op de eigen devices te draaien (en enkel in bepaalde gevallen naar een externe machine te gaan), iets meer privacy maar kan het introduceren van deze modellen vertragen, de lokale hardware kan wellicht minder en daarnaast komt er zo minder trainingsdata beschikbaar wat weer impact kan hebben op de prestaties.

Ik ben overigens voor deze aanpak: dan maar een iets minder slimme Siri.
dan maar een iets minder slimme Siri.
Het probleem in mijn ogen is vooral dat Siri dommer is geworden met de jaren. Als ik vraag om mijn floodlight buiten "warm wit" te maken dan gaat ie in een kleurenloop waar ie de kleur blijft vragen. Ik kan eender welke kleur zeggen daarna, ze doet het niet.

Dus dan maar geen Siri voor home automation.

Dan wil ik een "timer voor 20 minuten", vraagt ze "voor hoelang". Bij 2 minuten, of 30, doet Siri het gewoon. Maar bij 20 wil ze altijd bevestiging.

Dit soort dingen werkte 10 jaar geleden redelijk vlekkeloos, vandaag amper nog.

Ik hoop dat de EU op een gegeven moment Apple verplicht alternatieve voice asssistants als standaard te kunnen laten instellen. Ik zal heel snel zijn om m'n Home Assistant voice assistant als standaard te gebruiken zodra dat een optie is.
Dat is bij de google assistant niet anders. Ik heb in mijn keuken zo'n hub en vroeger kon ik o.a. meerdere timers zetten en als er één afliep deze laten herhalen, stoppen, etc. Nu reset hij random de andere timers, stopt hij ze allemaal i.p.v. alleen de aflopende timer en dergelijke. Heel irritant en dus nog amper bruikbaar.
Apart, daar heb ik hier geen last van. Gebruik zo'n hub in de keuken en meerdere timers mogelijk zonder problemen.
Timers werken bij mij prima, smart verlichting net geprobeerd (eerste keer) werkt inderdaad vrij matig, als in: onbruikbaar.
Bij mij werkten zowel timers en verlichting goed met Siri. Nu werkt b.v. Philips Hue wel beter dan Ikea lampjes.
Op zich heeft het gebruik van taalmodellen van een ander niet zoveel invloed op de privacy, zolang je die maar op eigen servers draait. Je zou zelfs kunnen beargumenteren dat het beter is om een LLM van een ander te gebruiken zolang je eigen taalmodel nog niet voldoet.
Maar ChatGPT integreert niet met iOS tenzij de gebruiker toestemming geeft. Dat is wel een verschil. Daarom gebruik ik Apple Intelligence ook niet. Wat van Apple zelf is werkt niet goed en ik wil niet dat ChatGPT integreert. Dan maar geen AI op me telefoon. En Siri is nog dommer dan een ezel dus die maar lekker haar ding doen.
Het kan een bewust keuze zijn de dienst te betrekken van een andere partij (OpenAI, etc). Scheelt ze een enorme bak geld aan investering. Gebruik van de dienst van de 3e partij is dan aan de gebruiker zelf, waarmee het privacy overweging bij de gebruiker wordt gelegd. Dat is mi waar die ook hoort. Verder kan Apple zich dan ook niet branden aan rechtszaken die nog gevoerd worden over jatwerk van OpenAI of als dadelijk de bubble barst met een enorme desinvestering zit.
Kun je dit toelichten? Ze hebben zelf controle over de data van gebruikers, dus ik neem aan dat ze via hun OS API's overal bij kunnen. Als je dan besluit om geen extra gebruikersdata te lekken via je AI (wat kan als je ook daar zelf de controle over hebt), zie ik het probleem niet qua privacy.

Het komt me meer over alsof ze het gewoon niet voor elkaar krijgen goeie AI / AI agents te bouwen. Maar wellicht zie ik wat over het hoofd.
We zien partijen groot en klein met matig success AI uitrollen, zou het niet zo kunnen zijn dat het voor Apple moeilijker uitpakt, wellicht moeilijker vanwege hun beperkte innovatie omgeving, misschien door hun stijl van management, misschien het gebrek aan wil binnen het bedrijf om de huidige slecht presterende siri los te laten?

Uiteindelijk weten we het niet, wat we wel weten is dat Apple qua gebruikers data een van de grootste partijen ter wereld is en ondanks een nagenoeg onbeperkt budget Siri nooit van de grond heeft weten te trekken.
hun privacy-first aanpak lastiger is dan ze dachten.
Ja, iPhones zijn weliswaar snel, maar een GPU in een datacentrum met een stroomaansluiting is toch sneller. Het is dus niet zozeer dat Apple het niet lukt om hetzelfde te doen als Google/Anthropic/OpenAI. Ze doen niet hetzelfde. En als de anderen ook alles op de telefoon zouden draaien zou het hen net zo goed af gaan.
Ik heb slecht nieuw voor je, Apple geen daar ook geen reet om, het is als de don't be evil slogan van Google. Anders hadden ze die miljard $ niet aangenomen van Google om Google Search de standaard zoekmachine te maken op iOS.

Die hele privacy first geneuzel is pure marketing, niks meer niks minder. Niet dat ze helemaal niets doen, maar je moet er echt niet teveel van verwachten.

Ik heb zelf een iPhone en zal het ook altijd boven een Android kiezen, ook vanwege privacy omdat het net ietsje beter geregeld is (althans ik hoop dat er iets klopt van die slogan), maar ik verwacht er niet al teveel van.
Zou het misschien ook kunnen zijn omdat AI in zijn huidige vorm gewoonweg niet te vertrouwen is? Daar Apple hoge eisen stelt aan zijn producten en AI nogal eens de neiging heeft maar wat raak te babbelen en dat door uitvoerige tests deze issues naar boven zijn gekomen,

Apple is altijd wel later met nieuwe technieken, maar proberen er altijd wel een eigen draai aan te geven die het net iets beter en mooier maakt dan de concurrenten (en ja, soms lukt dat ook niet zoals bijv. met Siri).

Ik werk ook veel met llm's en ik test deze dan ook uitvoerig en ik verbaas me elke keer hoe deze allemaal flink uit de bocht kunnen schieten in hun beweringen. Zelfs als je voor elke vraag een nieuwe chat/prompt aanmaakt zijn ze nog niet perfect. Sterker nog, het lijkt wel hoe nieuwer de versie van een llm is, de slechter ze worden. AI in zijn huidige vorm is gewoonweg niet betrouwbaar.
Dat maakt het allicht ‘iets’ lastiger, maar dat hoeft het niet veel lastiger te maken. Als we bijvoorbeeld kijken naar Siri, dat wordt ook in de Cloud geparsed. Het ‘stem-naar-tekst’ stuk gebeurd lokaal, maar de verdere verwerking gaat de cloud in. (edit: Dit gebeurd overigens niet met 'alles', maar een boel wel.)

Ditzelfde kunnen ze ook doen voor hun AI-gebeuren, in hun afgeschermde datacentres. Dit hadden ze tenslotte al een keer aangekondigd het zo te willen doen.

Daarnaast zijn de dingen die ze willen doen op z’n best ‘meer van hetzelfde’ (wat API’s in het besturingssysteem aanroepen, en samenvattingen maken en zo).

Cc @pBook @M3m30

[Reactie gewijzigd door lenwar op 20 oktober 2025 09:09]

Maakt niet zo veel uit hoor; Apple doet altijd alles op z'n Apple, en komt vaak pas jaren later met een oplossing die extra polished is vergeleken met de concurrenten die dan al jaren een in vergelijking "acceptabele" variant in hun producten hebben zitten.

Daarnaast is de kans klein dat de AI revolutie echt ergens heel gaat. Niet zozeer omdat de techniek niet blijft doorontwikkelen (al neemt de innovatie wel een beetje af), maar meer omdat met de huidige kennis/chips/technologie het plafond langzamerhand in zicht komt, wat investeerders graag liever niet zien. En zonder die investeerders is het AI-plaatje extreem verliesmakend wat betreft een commercieel product.
Daarnaast is de kans klein dat de AI revolutie echt ergens heel gaat
...
maar meer omdat met de huidige kennis/chips/technologie het plafond langzamerhand in zicht komt,
Functioneel gezien is dit, naar mijn mening, een misvatting. Er zit een groot verschil tussen de technologische beperking en de functionele uitvoering van hetgeen dat er is. Los van dat er grote optimalisatieslagen gemaakt (moeten) worden (dus hetzelfde doen, met minder capaciteit, of meer met dezelfde capaciteit), is het natuurlijk ook nog een factor 'nieuwe dingen verzinnen met de data en capaciteit die je al hebt'.

Als je puur kijkt naar rekenkracht, rauwe data verwerken, enzovoorts. Dan heb je natuurlijk 100% gelijk. Maar dat 'slechts techniek'.
Waar het functioneel om gaat, is wat je met die techniek doet. AI is natuurlijk een weinig-zeggende-parapluterm voor iets als 'slim acties uitvoeren op basis van gecorreleerde data' (maar dan in het groot). De AI-modellen kunnen in potentie gigantisch veel. Veel meer dan wat we er nu op grote schaal mee zien gebeuren. LLMs die gedichtjes maken, stukjes code genereren, of conclusies samenvatten op basis van wat er op websites staat, zijn natuurlijk maar het topje van de ijsberg. Ook dingen als plaatjes en filmpjes genereren, danwel fotos retoucheren zijn hartstikkele leuk. Maar dat zijn voorbeelden van functies die voor 'op een telefoon' (als voorbeeld) helemaal niet heel erg interessant zijn. (dat je ze aanroept 'met een telefoon' is wat anders.)

Het wordt interessant als het AI-model de gebruiker faciliteert als een persoonlijke AI-assistent. Je ontvangt een mailtje/SMSje/WhatsAppje met een vraag. En je krijgt een pop-upje met die vraag en een paar opties van waarschijnlijke antwoorden. Je maakt een foto van iets, en de foto ontvangt transparant tags van alles dat erop staat inclusief de sfeer en context. Je zoekt een recept op internet, en je krijgt de optie om de ingrediënten in je Albert Heijn app te zetten, en je krijgt automatisch een uitgeschreven recept, die rekening houdt met de verpakkingen die je bij de Albert Heijn hebt gekocht. Enzovoorts. Allemaal zaken die nu nog vol in ontwikkeling zijn, niet extreem veel rekenkracht hoeven te kosten of hele nieuwe technologieën voor nodig zijn, en allemaal AI-gestuurd kunnen worden. Het moet alleen nog gebouwd worden. (of het is er deels al, ik zou het niet weten, maar gewoon even als voorbeeld.)
Dit is waar, naar mijn mening, de echte AI-revolutie zal gaan plaatsvinden voor telefoons e.d. Het geautomatiseerd uitvoeren van voorspelde taken, en dat op een transparante en intuïtieve manier.
en komt vaak pas jaren later met een oplossing die extra polished is vergeleken met de concurrenten
Dit klinkt heel erg als de Apple van vroeger. Ik zie dit de laatste jaren steeds minder gebeuren. Ze presenteren een boel, met een boel eye-candy, superlatieven en poeha, waar het in de praktijk weinig meer toevoegt dan de concurrentie. Maar allicht heb je met dit natuurlijk helemaal gelijk. Dit is iets dat de tijd moet uitwijzen.
Het is ondertussen overduidelijk dat Apple de AI-trein heeft gemist, en het lijkt alsof ze er achteraan aan het hobbelen zijn.
Dat klinkt wel heel dramatisch. Ik denk dat je pas over een jaar of 10 kan zeggen wie de AI trein heeft gemist. In ieder geval gaat deze trein mogelijk ook elke 10 minuten ;) Ik denk wel dat dit wat klanten gaat wegjagen van hun IOS platform.
Ik denk wel dat dit wat klanten gaat wegjagen van hun IOS platform.
En dat denk ik dan weer niet. De zaken die de concurrenten nu wel al hebben, zijn toch veelal gimmicks. Ik denk dat er vooral veel Android-merk1 naar Android-merk2 overstappers zullen zijn. (en uiteraard wel iets van iOS naar Android). Ik zie in elk geval (nog) geen game-changers.
Voor bedrijven als Google/Facebook is het makkelijker; privacy? Wat betekend dat? is bij hun de kreet dat terwijl Apple op privacy gericht bedrijf is.

Dan is het natuurlijk lastiger om zulke AI modellen te maken die werken, want als ook maar iets lekt krijgt Apple de wind van voren, niet alleen via de consumenten/media/influencers maar ook via bijvoorbeeld vele rechtszaken.
Als Apple gericht is op privacy waarom bakken ze ChatGPT in hun OS?

Sorry maar je valt voor Apples marketing trucs. Jouw data wordt zowel bij Google als Apple gebruikt voor o.a ads. Apple is voor jou een soort vader geworden, je vertrouwt ze omdat ze goede marketing hebben. No hard feelings, ik was ook zo.
Iets te kort door de bocht. ChatGPT is niet standaard ingebakken, maar kan pas geactiveerd worden nadat de gebruiker nadrukkelijk toestemming heeft gegeven dat er data via servers buiten Apple om loopt.

Privacy is nog steeds één van de pijlers waar Apple op gebouwd is: en als blijkt dat ze data van gebruikers gebruiken voor ads hebben ze een groot probleem. Dat risico gaan ze absoluut niet nemen.
Eén woord: VisionOS.

Apple heeft vrijwel alle apps die ze op iOS leveren naar VisionOS geport. Ofwel, vrijwel ieder software team binnen Apple heeft zich hiermee bezig moeten houden. Dat terwijl de iOS, iPadOS en MacOS updates gewoon in hetzelfde tempo doorgingen.
Dat moet enorm veel druk gezet hebben op overige projecten.
Apple is in mijn beleving niet een bedrijf dat bekend staat om hoe technisch vooruitstrevend ze zijn, ze kijken juist vaak de kat (appel? :P) uit de boom en zijn wat later met het introduceren van nieuwe technieken. Degelijkheid en gebruikerservaring staat bij hen voorop. Bijvoorbeeld Microsoft en Google zijn veel meer van het experimenteren, wat ook veel meer gefaalde producten tot gevolg heeft.

Zoals ik het zie levert Apple pas een nieuw soort product als ze daadwerkelijk van mening zijn dat deze waarde toevoegt en logische plek in hun ecosysteem kan krijgen die deze nieuwe techniek/functionaliteit stabiel integreert. Daardoor krijg je de gebruikerservaring die veel mensen volgens mij erg fijn vinden. Ik kan me vanuit dat perspectief goed voorstellen dat ze worstelen met LLMs, die bieden momenteel niet de kwaliteit die ze mogelijk zouden willen en die hun gebruikers van hen gewend zijn. Tegelijkertijd zijn ze misschien zenuwachtig dat ze de AI hype train missen want daar gaan miljarden in om.

(disclaimer: ik ben zelf niet Apple gebruiker (Linux hier) want ik vind hun producten te duur en heb zelf graag meer controle over wat/hoe ik mijn hardware en software gebruik, maar ik kan me wel voorstellen dat Apple's insteek voor veel mensen goed werkt)
Het is natuurlijk niet zo dat Apple niets heeft geproduceerd op AI-gebied. Alleen al op Huggingface heeft Apple, op het moment van schrijven, ondertussen 132 modellen gepubliceerd.
Het gaat natuurlijk niet alleen om de modellen. Apple zet hun 'intelligence' in voor samenvattingen, afbeelding generatie en herkenning en delegeert naar ChatGPT voor complexe problemen. Op zich zijn dat prima verdedigbare keuzes. Ook de mobiele hardware heeft met de 'neural engine' best wat pit om dit soort bewerkingen vlot uit te voeren.

Waar het mis gaat is dat een enkel probleem gelijk als het compleet falen van Apple gezien wordt. Als een samenvatting tool van OpenAI hallucineert vinden veel mensen het alsnog een hele prestatie. Als Apple uit een nieuwsbericht over meerdere onderwerpen foutief de dood van een nog levende celebrity afleidt is dat 'falen' volgens veel mensen. Er wordt kennelijk met 2 heel verschillende maten gemeten.

Op dit moment is er nog geen enkele partij die een hallucinatie vrije en 100% veilige AI kan aanbieden. Daarnaast is tot dusver niemand met een beter idee dan 'meer hardware' gekomen om dat punt te bereiken, maar ook daar lijkt de rek ondertussen uit te zijn.
Wat hebben ze precies gemist dan? Vooralsnog is AI een grote belofte, die vooral inspiratieloze zooi produceert.

De enige zinnige toepassing die ik ken is het analyseren van patronen, om zo een diagnose te kunnen stellen. Overal waar je een data-analyse nodig hebt, kan het heel zinnig zijn. Maar op je telefoon heb je helemaal geen data-analyse nodig. Zelfs gesproken commando's zijn maar heel beperkt zinnig op je telefoon.

Uiteindelijk komt het hele AI-gebeuren weer neer op meer van het zelfde: data vergaren van je gebruikers, om het te kunnen vermarkten tegen de hoogste bieder en in ruil daarvoor maximale beïnvloeding van de gebruiker door de hoogste bieder.

En ondertussen zijn we minder en minder in staat om in een fysieke (niet-digitale) wereld samen te leven. Dat je tegenwoordig een smartphone moet hebben om een partner te kunnen vinden, is allesz eggend.
Onder t mom van: Veiligheid wordt de gebruiker hardware opgedrongen die AI lokaal mogelijk zou moeten maken. Wat niet lokaal kan gaat naar de cloud.
Maar Alles van Apple is closed source.
Dus de veiligheid: Je moet het geloven.
Erg veel vertrouwen in veiligheid van Apple's heb ik niet.
Apple ruilt de veiligheid van gebruikers, vlot in voor geld. vb China's toegang tot icloud gebruikers.
Dat de hardware lokaal AI draait zou de veiligheid bevorderen.
Wat er naar Apple's servers wordt gestuurd? Ik weet het niet. Met of zonder lokale AI, closed source.

[Reactie gewijzigd door signslave op 20 oktober 2025 13:53]

Mark Gurman… Is dat ook niet de man die beweerde dat de iPad Pro M5 twee front camera’s zou krijgen? Of al jaren roept dat er nu echt een touch screen MacBook gaat komen… de release is nog maanden weg, lijkt me wat voorbarig om dit nu al als nieuws te posten…
Mark Gurman zit er vaak naast. Maar juist relatief gezien heeft hij het vaak bij het rechte eind. Als je denkt “dat klopt niet” dan ben ik benieuwd welke geruchtenmakers jij als meer betrouwbaar acht?
de doorgaans goed ingelichte Mark Gurman
Zo wordt Gurman vaak aangehaald door Tweakers. Dat schept enig vertrouwen in wat hij te vertellen heeft, alsof hij een soort autoriteit is op dit gebied. Mijns inziens een fout om hem zo te noemen, hij zit er inderdaad ook vaak genoeg naast.
...en toch vond Apple het nodig om hem aan te klagen over die lekken.
Ik neem aan dat je refereert aan de sotuatie toen hij een telefoon van een Apple medewerker bemachtigd had waarvan Apple stelde dat dat op een illegale wijze gebeurt was?
Nou ja, het zou natuurlijk wel kunnen dat de gehele performance tegenvalt omdat ze meer willen (hebben beloofd) dan dat er op de huidige apparaten mogelijk is. Maar het kan ook schieten met hagel zijn. Niet voor niets haalde Apple de originele release niet.

Ik bereid me alvast voor op een teleurstelling. Net als heel Apple's AI erg underwhelming is.
Ik ben niet zo negatief over Apple (maar geef toe: ik ben fanboy).

- AI is niet aan het versnellen, maar vlakt af. I is het ook al helemaal niet.
- Ik denk dat binnen enkele jaren lokale AI (ook rekenwerk) de richting is voor Apple.
- Een implementatie waarbij ChatGPT (of ander) wordt gekoppeld met SIRI is onderweg.
- AI om lampjes aan te doen, het weer op te vragen, of wat foto's te bewerken .. ffff ... wat spannend.
- Ik heb graag dat Apple alles op alles zet om heel veilig te blijven en privacy te beschermen.
AI om lampjes aan te doen, het weer op te vragen, of wat foto's te bewerken .. ffff ... wat spannend.
Totaal niet spannend inderdaad en daarom des te frustrerend dat Apple dat nog niet voor elkaar heeft. Het is namelijk een verademing om op een normale manier tegen een Assistent te praten en dat hij snapt dat de lampen aan moeten. Dat tegenover de vaste commando's die de oudere Assistents nodig hadden en die voor ons (en zelfs voor engelstalige mensen) totaal tegen ons normale praatpatroon in gaan.

Ook het verschil tussen AI van Apple en anderen om foto's te bewerken is een wereld van verschil. De AI van Apple maakt daar domweg te veel vreemde keuzes waardoor de foto er niet uit ziet, waarbij anderen daadwerkelijk een heel deel van de foto kunnen vervangen zonder dat het vervreemd.
Ben ook verbaasd hoe dit ze nog niet gelukt is met de hoeveelheid opensource modellen die bestaan die gewoon al lokaal kunnen draaien. Ik snap dat ze graag zelf iets willen ontwikkelen, maar bruikbare, lokaal draaiende alternatieven liggen letterlijk voor het oprapen….
En jij denkt nog steeds dat privacy bescherming onder leiding van Tim Apple een ding is? Heb je hem niet gezien op kantoor bij herr Trump met zijn gouden Apple beeldje?
Ik denk dat de gemiddelde iPhone gebruiker helemaal geen Apple AI wil, ook niet met Siri.

Mijn vriendin en haar vriendinnen zijn iPhone en Apple gadget fans. Voor ai gebruiken ze perplexity, voor foto bewerken appstore apps.

iPhone is al voorzien via de Appstore van de populaire AI tools.

AI Siri is overbodig, ze kunnen beter het AI gebeuren voorbij laten gaan en zich focussen op design, juist de reden dat mensen iPhone kopen.

Mooi design, simpel menu, geen moeilijke ingewikkelde zaken in de iPhone, dat is belangrijker.
Of de Apple gebruiker er wel of niet zit te wachten valt te betwisten, maar daar zit het probleem niet. Het probleem is meer dat Apple wel probeert bij te blijven op het gebied van AI, maar het lukt gewoon niet. Als Apple vanaf begin af aan had aangegeven AI geen prioriteit te geven vanwege privacy redenen had niemand raar opgekeken, maar nu worden er continue beloftes gedaan die niet waar kunnen worden gemaakt en worden deadlines steeds niet gehaald. Het oogt gewoon erg rommelig bij Apple. Het werkt op dit moment gewoon niet.

Daarnaast zal Apple ook niet blij zijn dat Microsoft en Google zich in een nieuwe grote markt hebben weten te vestigen. Ook al zal de gemiddelde Tweakers blij zijn dat Apple nog geen AI-first bedrijf is: de markt en doelgroep is gewoon erg groot om volledig te laten liggen.
Maar AI werkt wel goed op die andere telefoons? Mijn vriendin is geen fan (Samsung flagship). Of is jouw persoonlijke ervaring anders?
Ik heb prima ervaringen met Gemini op mijn telefoon. Het is niet perfect, maar werkt wel een stuk beter dan de verouderde Google Assistent of Siri.

Maar de AI markt is veel breder dan alleen een slimme assistent. Google en Microsoft stellen met Gemini en CoPilot echt goedwerkende geïntegreerde AI modellen beschikbaar die iedereen kan zo kan oppakken en gebruiken. Denk bijvoorbeeld aan AI als zoekmachine of hulp bij Office, GitHub, enzovoort. Apple is misschien niet geïnteresseerd in veel van die toepassingen, maar ik kan me ergens toch wel voorstellen dat Apple niet blij is dat ze weer een hele markt aan zich voorbij moeten laten gaan voor nu.
Zelfs niet een technisch onderlegde iPhone gebruiker. Als ik zie hoe ze met iOS 26 de boel alleen maar trager gemaakt hebben dan wil ik niet weten wat voor effect een lokale AI gaat hebben op een toestel.
De luiheid van Apple van de afgelopen jaren begint nu langzaam merkbaar te worden. Voorheen was de merknaam of iOS genoeg om mensen over te halen, waardoor ze jarenlang minimale inzet gaven. Nu stapelt de achterstand zich op. Mijn apple watch kan bijvoorbeeld nog geen Whatsapp bericht versturen via Siri terwijl dat op m’n iPhone wel kan. En sinds iOS26 kan ik een gemaakt screenshot niet meer direct roteren, daarvoor moet je helemaal naar de foto-app.
Als je ziet dat AI vaak hallucineert, kan je je afvragen welk standaard Apple wilt inzetten. Want je wilt geen hallucinerende Siri.
Dit zie je wel vaker, de wet van de remmende voorsprong: Siri was een van de eerste AI assistenten, maar inmiddels voorbij gestreefd.

Probleem is wel dat het heel lastig om een bruikbare praktische AI assistent te maken. De AI technologie van vandaag is verbluffend goed voor entertainment (plaatjes genereren voor social media), maar voor feitelijke informatie is het nog veel te onbetrouwbaar, als ChatGPT zegt dat de trein naar Antwerpen om 10:00 vertrekt is er een kans dat dit klopt, maar ook een grote kans dat dit pure hallucinatie is en er helemaal geen trein naar Antwerpen gaat.
Ik ben een paar maanden geleden overgestapt van iPhone naar Android en wat gewoon meteen opviel was hoe verademend het was om een assistent te hebben die wel behulpzaam is. Bij Siri was het veel meer gezeik om:
  1. Te zorgen dat ze je daadwerkelijk verstond. Zeker als je in het Engels (met boerennederlands accent uiteraard) sprak
  2. Ze was niet tweetalig zoals Gemini
  3. Een antwoord te krijgen duurde veel te lang ("Asking Chat-GPT ... ... ..."), zeker een halve minuut per vraag
  4. Dan ook nog een zinnig antwoord te krijgen.
Bij Gemini kan ik letterlijk alles vragen en ik krijg een antwoord, en dat zorgt ervoor dat ik het te pas en onpas gebruik. Bij Siri moest ik de telefoon pakken om zelf een zoekopdracht te doen op het internet als ik wilde weten of die ene acteur in Peacemaker dezelfde acteur was als de acteur die Roy speelde in The Office. Gemini kan gewoon veel complexere zoekvragen aan, is veel beter in het corrigeren van vragen, kan veel beter overweg met context en versprekingen, etc. Er zitten een hele grand canyon tussen de kwaliteit van Siri en de kwaliteit van Gemini.
bon, als ik local foundation model dat 3B parameters en niet geacht is enige world knowledge te hebben, sta ik versteld hoe goed de antwoorden tov andere opensource 3B modellen, maar bovenal snel en efficient zijn ... doe shortcuts eens open en leer eens wat bij ...
Ik vind het echt bijzonder dat dit zo moeilijk is voor Apple.

Er zijn inmiddels zeker 24 LLM makers en meer dan 100 modellen. Een partnerschap afsluiten en een mooie integratie maken kan toch niet zo moeilijk zijn voor Apple. Een paar jaar later kunnen ze over naar een eigen dienst. Dit hebben ze ook met Google Maps gedaan om later een eigen kaartservice op te zetten, al was dat vooral uit noodzaak.
Ik zit erg diep in de apple bubble, dus oprechte vraag: is de integratie bij andere OS'en al goed gelukt?

Zoals de use-case zoals van de apple-vaporware advertenties van hardop praten met een AI die je email leest, je agenda beheert en vervolgtaken in apps correct voor je uitvoert?

Ik heb wel de chatgpt app op mijn telefoon en laptop, maar die gebruik ik eigenlijk alleen in die apps. Maar ik zou wel een AI willen waarmee in de auto complexere multi-app opdrachten kan geven (datumprikker sturen naar vriendengroep uit een specifieke Discord chat bijvoorbeeld)
Ik zit ook diep in die bubbel. Maar de Siri-achtige functie is echt VEEL beter op andere platformen. Op mijn werk gebruik ik een MS laptop met flinke Copilot integratie en die doorzoekt je hele email en dergelijke. Dat werkt echt heel fijn als je bepaalde situaties ofzo moet toelichten naar een klant. Je kan gewoon zeggen, "er gebeurde iets als dit en dat" en dan zoekt hij de relevante citaten erbij. Daarna kan je dat laten samenvatten.
Ik ben al blij als het Siri lukt om het laatste whatsapp bericht voor te lezen. Maar bij groeps-apps lukt dat al niet meer en namen van personen noemen is ook lastig: gaat Siri het hele telefoonnummer oplezen 8)7
Apple heeft inmiddels wel iCloud, maar zijn traditioneel toch erg van het on-device draaien van dit soort systemen, denk dat dat het wel moeilijk maakt.
Veel van Apple Intelligence draait op de servers. Email bijvoorbeeld, ik kan niet eens aangeven dat mijn mails niet naar de servers gaan als ik Apple Intelligence aan wil zetten moet ik accepteren dat mijn mails door een LLM gaan wat op een server draait.

Men zegt hier Ja apple privacy maar op een Samsung kan ik per functie aangeven of ik het AI ervan aan wil zetten of niet voor online verwerking. Doe ik dat uit krijg ik de melding dat alleen on-device AI gebruikt wordt en de volgende functies X niet werken omdat het een AI op een server vereist...
Dat was inderdaad ook hun idee voor Gen AI. En hoewel ik dat toejuich, is dat voor nu misschien te complex. Het treurige is dat Apple juist ook best een goed AI team had.

Ze deden goed onderzoek, ze waren vooruitstrevend met image processing, ontwikkelen al heel lang hun neural engines. Maar inmiddels zie je dat ze in een jaar of 5 op flinke achterstand zijn gezet.
Het zal niet helpen dat Apple altijd het minimale aan werkgeheugen meeleverd. Qua LLMs kan je eigenlijk niks nuttigs draaien met maar 8GB geheugen.
Je bent niet zo heel goed op de hoogte van recente modellen, lijkt me.
Voor siri sturen ze ook data naar hun eigen DC's dat kan natuurlijk ook gedaan worden voor andere taken. Ze waren in gesprek met mistral ooit, mistral publiceert haar modellen ook op AWS, Azure, etc.. Dus dan kan apple gewoon hetzelfde truukje uithalen daarmee.
Ik denk dat Apple de lat (te) hoog heeft gelegd. Apple staat er om bekend dingen pas te willen releasen als het aan bepaalde standaarden voldoet. Nu is het met ai gewoon zo dat het nooit perfect zal werken. Dat hallucineren is de doodsteek van ai voor Apple denk ik. Als dat opgelost is dan zal het pas voldoen aan de standaarden en uitgerold gaan worden.
Zoals @pBook ook al aanhaalt is denk ik hun 'privacy-first' aanpak lastiger dan gedacht. Ze hebben immers al een hoop modellen gepost op Huggingface dus daar moet het niet aan liggen denk ik.
Misschien moeten ze dat een keer op de tweede plek zetten. Binnen iCloud zijn er ook apps die niet versleuteld je data opslaan. Inmiddels is zo ongeveer alles wel gecodeerd inclusief metadata. Maar volgens mij was dat wel een pad dat ze bewandeld hebben om hier te geraken.


Om te kunnen reageren moet je ingelogd zijn