Bloomberg: iOS 26.4 krijgt spraakbediening voor YouTube, Facebook en WhatsApp

Vanaf iOS-update 26.4 wordt het mogelijk om onder meer Uber, Temu, Amazon, YouTube, Facebook en WhatsApp volledig met spraak te bedienen. Dat zeggen anonieme bronnen tegen Bloomberg-journalist Mark Gurman.

De iOS-update van komende herfst laat gebruikers via het App Intents-systeem externe apps bedienen met spraakcommando's aan Siri, schrijft Gurman. Ze kunnen de spraakassistent bijvoorbeeld vragen om een reactie achter te laten op een Instagram-post of om op Amazon een product toe te voegen aan het winkelwagentje. Volgens de Bloomberg-journalist moeten de ondersteunde apps volledig bedienbaar zijn met spraak.

De functie wordt momenteel getest met de apps Uber, AllTrails, Threads, Temu, Amazon, YouTube, Facebook, WhatsApp en 'een aantal games', naast Apples eigen apps, zeggen de bronnen tegen Bloomberg. Wel zouden ontwikkelaars intern tegen problemen aanlopen om ervoor te zorgen dat het systeem werkt bij 'voldoende apps'. Apple zou spraakbesturing willen uitschakelen bij bankierenapps en andere gevoelige diensten of de spraakmogelijkheden drastisch willen beperken.

Apple wil bij de release van iOS 26.4 naar verluidt ook andere updates voor Siri uitbrengen. Het bedrijf kondigde de slimmere versie van zijn virtuele assistent al een jaar geleden aan, maar de release liep vertraging op. Gurman zei eerder al dat de AI-versie van Siri nog te veel bugs bevat en niet consistent werkt.

Door Kevin Krikhaar

Redacteur

11-08-2025 • 15:11

23

Reacties (23)

23
23
8
1
0
13
Wijzig sortering
Is er een reden waarom dit in 26.4 komt, terwijl 26 nog niet eens officieel is gereleased en 26.1 t/m 26.3 ook nog tussen zitten? Moet ik 26.4 als een minor update zien?
  • iOS 16.4: nieuwe emoji’s, web push-notificaties, voice isolation voor bellen.
  • iOS 15.4: Face ID met mondmasker, Universal Control, nieuwe emoji’s.
  • iOS 14.4: kleinere update (focuste meer op bugfixes en camera-optimalisatie).
  • iOS 13.4: nieuwe CarKey API, gedeelde iCloud Drive-mappen.
Dus: .4 is meestal de “grote voorjaarsupdate”, maar het kan per jaar verschillen hoe groot hij werkelijk is.
Maar de release is meestal in September en vanaf daar begint men meestal ook te tellen. De .4 update komt dus niet meestal pas in April uit of zo. De tekst spreekt dan ook over een Herfst-update:
De iOS-update van komende herfst...
Afhankelijk van hun release timing komt hij wellicht breed beschikbaar aan het begin van Q4 2025? En dan in april volgend jaar iOS 27.2?

Ik snap sowieso nief waarom ze op automodeljaren zijn overgestapt voor een OS-versie (in plaats van gewoon jaar van release zoals veel andere software dat doet), maar die 4 kun je met kwartalen nog verklaren denk ik.
Klinkt erg on-Apple ja. Kan zijn dat het een soort van preview/backport van iOS 27 is. Om het voor app makers iets aantrekkelijker te maken zo'n "obscure" feature toe te voegen. Veel mensen gaan pas over naar een nieuwe major versie als ze emojis tegen komen die op de oude iOS niet te zien zijn.
Is er een reden waarom dit in 26.4 komt, terwijl 26 nog niet eens officieel is gereleased en 26.1 t/m 26.3 ook nog tussen zitten? Moet ik 26.4 als een minor update zien?
De originele bron zegt dit:
Gurman said the new Siri is on track to launch in the U.S. in spring 2026. If so, it will likely be released as part of iOS 26.4, iPadOS 26.4, macOS 26.4, and visionOS 26.4 next March or April. He said the new Siri won't be available universally on day one, so it might take time to roll out to some countries, just like Apple Intelligence overall.
Oftewel in september komt iOS 26 met de vernieuwing die daarin zit. En in het voorjaar iOS 26.4 met daarin de Siri functionaliteit die in dit artikel besproken wordt.

Antwoord op je vraag “Is er een reden waarom dit in 26.4 komt” is dus simpel: Het is nu nog niet af :)
Vanuit een toegankelijkheidsperspectief klinkt dit best tof, bijvoorbeeld voor blinden of slechtzienden. Ben benieuwd hoe dit in de praktijk eruit zal gaan zien. En of je dit zonder je scherm kan laten uitvoeren, met bijvoorbeeld CarPlay in de auto. Als het volledig geautomatiseerd reacties kan posten zou ik toch een visuele bevestiging willen zien wat hij dan wil gaan plaatsen.
Maar waarom alleen voor de Big Tech bedrijven ?
Omdat die bij Apple aan tafel zitten en dit in de app ingebouwd hebben? De rest volgt via de SDK-documentatie.
Mijn ervaring met stemsystemen is toch dat het allemaal tergend traag werkt voor je eindelijk klaar bent met iets dat complexer is dan "doe het licht aan". Dat terwijl ik slechtzienden en blinden sneller met hun telefoon heb zien omgaan als ik dat kan door een combinatie van een voice assistant op turbosnelheid en goede fysieke feedback.

Hoewel dit voor sommige beperkingen wellicht veel zal helpen, denk ik eerder dat deze feature bedoeld is om Siri functioneler te maken en AI vaker in te zetten. Meer "Siri, bestel mijn gebruikelijke bestelling bij de pizzaria om de hoek" en minder "open google.com in Firefox en zoek de definitie van het woord aardbei".
Kan interessant zijn.

Op welke iPhones komt dit beschikbaar?
Alleen de nieuwste 17 dadelijk, of ook eerdere modellen (14, 15 en/of 16)?
Kan interessant zijn.

Op welke iPhones komt dit beschikbaar?
Alleen de nieuwste 17 dadelijk, of ook eerdere modellen (14, 15 en/of 16)?
Devices die Apple intelligence ondersteunden.
Oftewel 15 Pro, 16 serie en nieuwer.
Ik merk dat ik steeds meer opties juist uitzet (zoals ik deze optie ook direct uit ga zetten).

De smartphone bij de volgende ronde maar eens inruilen voor een dommere phone.. Ooit in 2008 overgestapt op de iPhone en nooit meer omgekeken naar iets anders maar sinds AI z'n intrede heeft gedaan begin ik er steeds meer klaar mee te raken om eerlijk te zijn..
Dit is goud voor visueel beperkte mensen. Jij hebt er niks aan, andere wachten hier op.
Dat klopt inderdaad en juich ik zeker toe!
Een alternatief vinden zónder AI integratie(s) is best lastig. Heeft het OS het zelf niet, zit het wel in de apps geïntegreerd. Dus ik denk dat je er nauwelijks meer omheen kunt.
Ik merk dat ik steeds meer opties juist uitzet (zoals ik deze optie ook direct uit ga zetten).
Als je Apple Intelligence uit hebt staan hoef je verder niets te doen, dit wordt onderdeel van.
Ik zelf zet het ook uit, goed ik zal Ai straks ook niet inschakelen op mijn 16pm.
Ook andere dingen als live activiteiten, staat bij alle apps uit. Siri staat ook uit.

Maar om nu om te gaan na een feature phone, nee dat nou weer net niet.
Hoe wil je middels spraak de app van Temu bedienen? Dat lukt met een normale bediening middels vingers al bijna niet. Zoveel opties qua producten waarbij je lastig bij het zelfde product uitkomt.

Dus helaas benieuwd of dat middels spraakopdrachten dan wel makkelijker te navigeren is in de app.
Je vraagt gewoon Temu om rotzooi wat met AI is gekloond op basis van gestolen content gecreëerd door echte makers, en in elkaar gezet door kleine kinderen in fabrieken. Dan kan Temu prima bedienen met je stem.

/s
WA maar schrijven E2E encrypted. Tja, dat de AI, de stembediening en de dicteer functie nog alles naar Meta HQ sturen is wat minder relevant :D
Inb4: “voorlopig alleen nog in de Angelsaksische wereld” :+
Ik betwijfel, maar hoop toch, dat het gaat werken maar zou toch handig zijn als ik "hey siri skip ad" kan roepen naar mijn ipad wanneer ik die buiten handbereik een youtube video laat afspelen.


Om te kunnen reageren moet je ingelogd zijn