Apple: maken van gepersonaliseerde Siri-AI-functies duurt langer dan verwacht

Apple bevestigt dat de 'gepersonaliseerde' AI-functies van Siri later uitkomen dan verwacht. Het bedrijf zegt dat de functies 'in het komende jaar' verschijnen. Het leek er eerder op dat de functies in april zouden verschijnen, maar dat lijkt niet langer het geval te zijn.

Met de update moet Siri 'bewuster' worden van de persoonlijke context van de gebruiker en acties kunnen uitvoeren bij externe apps, zegt een woordvoerder tegen Daring Fireball. "Het gaat ons meer tijd kosten dan verwacht om deze functies naar gebruikers te kunnen brengen en we verwachten ze in het komende jaar te kunnen uitbrengen".

Apple kondigde de functies in juni aan bij de WWDC in het kader van Apple Intelligence. Toen gaf het bedrijf aan de functies 'over het komende jaar' naar gebruikers te kunnen brengen, wat het bedrijf negen maanden later dus nog steeds zegt. Het gaat bijvoorbeeld om functies die adressen in berichten kunnen herkennen, waarbij een gebruiker Siri kan vragen dat adres toe te voegen aan iemands contactinformatie. Gebruikers kunnen Siri ook vragen naar iets dat eerder in een mail, tekstbericht of op een website voorbij is gekomen, zoals een recept.

Bloomberg-journalist Mark Gurman zei medio februari op basis van bronnen al dat de AI-functies uitgesteld zouden worden. Volgens zijn bronnen zouden de functies te veel bugs bevatten en niet consistent zijn. Hij gaf aan dat de update mogelijk bij iOS 18.5 verschijnt, die op zijn vroegst in mei moet uitkomen. Uit het bericht van de woordvoerder blijkt dat dit ook later zou kunnen zijn. Apple werkt volgens Gurman ook aan een volledig herziene Siri, die natuurlijkere gesprekken kan voeren. Het bedrijf heeft sinds de WWDC wel verschillende AI-functies uitgebracht, zoals schrijftools en ChatGPT-integratie.

Door Hayte Hugo

Redacteur

07-03-2025 • 19:48

24

Lees meer

Reacties (24)

24
24
18
0
0
6
Wijzig sortering
Apple neemt wel het moeilijke pas door zoveel mogelijk contextuele AI lokaal op de NPU te draaien. En dat in combinatie met hun eigen cloud based AI. Laat staan externe AI api’s toelaten.

Zeker op smartphone kan dit challenging zijn. 35TOPS is top maar als het de batterij leeg zuigt ga je minder geneigd zijn om wat AI taken aan Siri uit te besteden.
Het is ook eigenlijk een beetje een gek idee om de praktijk. AI-functionaliteit kost hem veel rekenkracht en geheugen. Nou heeft een telefoon natuurlijk ook veel rekenkracht, maar relatief weinig geheugen.

Als je naar de huidige Siri kijkt, dus de ‘spraakgestuurde afstandsbediening’

Spraak naar tekst doet hij schijnbaar lokaal, vervolgens wordt het naar de cloud gestuurd voor verwerking en de berekende opdracht gaat weer terug naar je telefoon.

Het meest complexe stuk is het correct interpreteren van de opdracht.
“Zet het licht in de woonkamer aan” is hetzelfde als “zet de lampen in de woonkamer aan” of “woonkamerlicht aan”

Voor een mens natuurlijk futiel, maar een computer wel een ding.

Als die nieuwe AI-spullenboel per se lokaal moet draaien, gaat het of weer een hoog gimmick-gehalte worden (zoals de huidige Siri), of je telefoon is na 15 opdrachten leeg 😊

Met dat gimmick-gehalte doel ik op de beperkte lijst aan functies die de huidige Siri kan.
Zelfs Homeassistant draait basic spraakherkenning lokaal op een raspberry pi, dus ik weet niet echt wat ik van uw verhaal moet geloven dat de interpretatie een probleem zou zijn.

Ik neem wel aan dat complexe agent-taken tussen apps een uitdaging zijn. Maar ‘doe maar alle lichten uit’ zal wel begrepen worden.

Het begint pas moeilijk te worden als
Je vraagt om je een update te geven over een pakketje dat je verwacht. Alle info zit in uw mailbox. En alles
Moet lokaal afgehandeld worden. Zodra een AI moet surfen, context van mails begrijpen en handelen op basis van uw commando… tja.. dat is iets anders dan een voorgeprogrammeerde scene te activeren op een spraakcommando.

[Reactie gewijzigd door Coolstart op 7 maart 2025 20:36]

Zoals ik schreef is de spraakherkenning al een tijd lokaal alleen doet Apple nu de logica van Siri in de cloud.

Maar als Apple met haar AI ‘echt’ AI-taken wil doen en niet een afstandsbediening zijn (wat Siri en HA nu doen), dan gaat hem dat niet worden om daar wat leuks van te maken volgens mij.
Sorry, ik was iets te snel met reageren. We zeggen idd het zelfde.

Heb nu Siri in beta draaien. 18.4 dacht ik. Als je GPT voice gewoon bent dan is Siri echt slecht.
Ik neem wel aan dat complexe agent-taken tussen apps een uitdaging zijn. Maar ‘doe maar alle lichten uit’ zal wel begrepen worden.
Ik neem juist het tegenovergestelde aan. Systeem naar systeem communicatie is relatief simpel. Het overgrote deel maakt gebruikt van REST api's en stuurt json berichtjes. Menselijk taal lijkt me het moeilijkste. En dan niet perse de eerste zin interpreteren maar vooral een gesprek voeren.
Als ze eerst eens zorgen dat de spraak herkenning, zoals bij bv Gemini goed is... kunnen ze verder.
De taal herkenning van siri is nu als van een engels pratende fransman met het verstand van een ontploft poffertje.
Ik moet leren wat siri wel of niet omgezet krijgt en heel duidelijk articuleren en tevens goed kijken wat ie ervan heeft gemaakt. Echt onder de maat.
En ALS siri aanstaat hoort ie te pas en te onpas 'he siri'
Apple loopt altijd achter de meute aan. Maar de implementatie en integratie loopt meestal voorop.
In het geval siri: geen plusjes.
ps. zo nu en dan probeer ik siri weer ff. Er zou verbetering kunnen zijn.
Laatste poging, maand of 3 geleden. tja. flut.
Gewoon Gemini, in google browser, nauwelijks fouten bij de spraakherkenning.
Ik ben overigens grote Apple fan.
Lokaal AI. Waarom dan?
Dat betekent... dat de taalherkenning... niet vooruit zal gaan.
Dat de antwoorden onder de maats zullen zijn zijn.
OF de grote OF, ze halen hetzelfde geintje uit als met siri.
Alle aangesloten iphones worden hun 'supercomputer' alles wordt naar de Apple-HQ teruggestuurd.
Ze doen dingen. Zijn betrapt met Siri. Met hun AI gaan ze hetzelfde doen maar zich niet laten betrappen.
Apple krijgt wel een 100m boete omdat ze alle gesprekken afluisteren OOK als siri uit staat en naar Apple HQ terugstuurt.
bron: https://www.bbc.com/news/articles/cr4rvr495rgo

Uiteindelijk wordt van elke gebruiker de gesprekken vragen en antwoorden opgeslagen.
Door AI geanalyseerd.
En als het in opdracht van de 'patriot act' gebeurd, is het op zijn minst best eng.
Amerika voert vele echte en vage oorlogen.
Vaag:
War on communism
War on drugs ( disproportionele impact op de zwarte bevolking )
War on terror ( van 500.000 tot 2.000.000 burger doden in het middenoorsten, naar gelang welke partij telt ) Er zouden er best wat kwaaie broers/zussen/vaders/moeders/vrienden gemaakt kunnen zijn. Dat zijn terroristen.
Bij de volgende oorlog:
The War for the Free....
Als je niet achter hun acties staat...
Dan krijg je van de coalition of the free willing een proportionele tik op je vingers.
Ik denk dat eenhoop mensen al veel AI taken aan andere apps hebben besteed omdat Siri na 12 jaar stil te hebben gelegen het nu gewoon voor een hoop mensen niet meer interessant is.
Ja uitbesteed aan cloud based systemen. Alexa is bijv cloud. Apple wilde alles lokaal draaien maar dat komt natuurlijk met een kost. Eens benieuwd wat ze met 35 TOPS kunnen doen.
Zeker op smartphone kan dit challenging zijn. 35TOPS is top maar als het de batterij leeg zuigt ga je minder geneigd zijn om wat AI taken aan Siri uit te besteden.
De accu kun je niet significant leeg trekken in een paar seconden (of zelfs minuten). Als een reactie op een vraag aan Siri minuten duurt is het waardeloos. Ik denk dus dat als Apple het acceptabel snel laat werken, het alleen een probleem voor je accu is als je een urenlang gesprek gaat houden met je telefoon. Tientallen keren per dag gebruik maken van Apple Intelligence lijkt me geen probleem voor de accu.
Ik weet niet hoe het met jullie gaat, maar merk dat ik AI niet veel gebruik in mijn dagelijks leven behalve dan problemen voorleggen.

Vraag mij af wat een Siri nu automatisch voor mij gaat oplossen.
Wij gebruiken het wel eens voor inspiratie voor gerechten en het plannen van vakanties :P (een LLM, Siri gebruiken we helemaal niet) gezien de resultaten weet ik niet of ik iets wil wat het automatisch gaat regelen :p

[Reactie gewijzigd door Mellow Jack op 7 maart 2025 23:08]

Ja ik heb ook weleens een vakantie gepland. Recepten nog niet. Goed idee 😀
Ik gebruik ChatGPT om yaml en jinja te schrijven voor home assistant. Wat ik nog mis is een AI op mijn Mac of telefoon die toegang heeft tot mijn bestanden (handleidingen bijvoorbeeld) zodat ik kan vragen hoe ik iets moet doen ipv zelf te zoeken in de handleiding.
Of facturen (wanneer iets gekocht is, voor garantie). Of vertalen (want Apples vertaal app blijft ook hopeloos achter).
Vraag mij af wat een Siri nu automatisch voor mij gaat oplossen.
Je kent het wel: een vriend verhuist of viert zijn verjaardag, en in plaats van zijn nieuwe adres, of de datum van het feestje, gewoon in de mail te zetten, maakt hij een prachtig plaatje. Als je op een later tijdstip in je mail zoekt kun je de bewuste informatie niet vinden omdat je mail-programma alleen op tekst kan zoeken. Als ik Siri kan vragen wat het nieuwe adres van Sjoerd is zou ik dat echt wel willen gebruiken.
Zit je dan met je iPhone 16 waarbij de 90% van de Keynote ging over hoe dit ding gemaakt was voor AI. Tegen de tijd dat het komt heb je de iPhone 17/18.
Dat is voor mij inderdaad een beetje het resultaat van de AI hype. Het lijkt net alsof de wereld op alle andere vlakken stil staat. Alle teams zijn van hun normale werk en roadmap gehaald om maar overal LLM's te gaan integreren en hopen dat er iets blijft hangen.

Ergens wel logisch natuurlijk maar sinds de komst van chatgpt is het volgen van ontwikkelingen relatief saai
Dit. Torenhoge beloftes en alles wat we hebben is een niet gebruikt knopje om foto’s te maken. En een Siri die nog steeds niet fatsoenlijk werkt.

Dat is natuurlijk flauw om te zeggen. Maar de kwaliteit van Apple is de laatste jaren wel minimaal. Onnodige veranderingen in het OS die meer kwaad dan goed doen in mijn ogen. En vreemde keuzes in apps. Als je bijvoorbeeld kijkt naar de cijfers in de Appstore. Dan wordt er slecht gescoord.
Maar dat heb je al iig in de photos app. Er wordt automatisch ocr toegepast en je kunt erop zoeken. Of het in de mail app zit geïntegreerd weet ik niet maar je kunt fotos iig doorzoeken op tekst.
wat een giller, een ai gedreven apparaat 24/7 naar je laten luisteren of je het commando geeft het licht aan of uit te doen....
Tja, dan is AI echt niet voor u. Je kan het ook uitschakelen. Apple draait tenminste alles lokaal, niet niemand zal uw gil horen. En ja ik weet dat er een opt-in is om audiogeluiden naar R&D te sturen.
Ik kijk meer uit naar de mogelijkheden voor Siri om de context beter te begrijpen. Ik heb nu vaak, wanneer ik onderweg ben, dat ik dingen 3x moet herhalen omdat Siri het net niet helemaal begrijpt.
Ik voel mij toch wel ergens genaaid met de aanschaf van een iPhone 16 pro. Ik was juist zo overtuigd van de keynote maar ze hebben duidelijk overpromised..
Iedereen die valt over dat de spraakherkenning niet goed is, dat is net de issue, vandaag kan je perfect lokaal dicteren en dat gaat snel en feilloos …
Siri zit nog op het oude systeem en dat is idd een 10tal jaar blijven hangen, nu staan ze voor de moeilijke opdracht om van een cloud based first dit allemaal om te zetten naar een on device first.
Verder willen ze dit doen met security en privacy first, en dat is moeilijker dan gedacht, want hoe voorkom je dat third party apps die symentic db niet gaan plunderen, remember windows recall 😜

Dus de groep die de nieuwe Siri heeft bedacht botst op de oude infrastructuur en op security die zegt, euh dat gaan we toch eens deftig moeten pen testen …

[Reactie gewijzigd door temvdb op 10 maart 2025 08:20]

Op dit item kan niet meer gereageerd worden.