Apple gaat iOS een functie geven om een AI-versie te maken van de eigen stem. Op die manier kunnen mensen met bijvoorbeeld de spierziekte ALS via de software blijven spreken op een manier die lijkt op hun eigen stem.
Voor de functie moeten gebruikers een kwartier aan audio opnemen met een iPhone of iPad, waarna de software lokaal een kunstmatige versie maakt van de stem, zegt Apple. De functie heet Personal Voice. Daardoor kunnen gebruikers blijven spreken nadat hun stem door een ziekte niet meer goed functioneert. Het is onduidelijk of de functie beperkt is tot mensen van wie de stem zal weggaan of dat alle gebruikers hun eigen stem kunnen laten nabootsen.
Personal Voice is een van de Toegankelijkheids-functies die Apple gaat toevoegen. Live Speech is een text-to-speechfunctie voor in onder meer Facetime. Gebruikers kunnen reacties typen, waarna de software die voorleest aan andere gebruikers. Zo kunnen mensen ook reageren als ze daar met hun stem niet toe in staat zijn.
Ook komen er opties voor gebruikers met een cognitieve of visuele beperking. Daaronder zijn opties om de interface te versimpelen en met grote knoppen weer te geven. Zo kunnen gebruikers communiceren via een emoji-toetsenbord als ze niet kunnen schrijven. Er is een optie om de Contacten- en Facetime-apps te combineren in een Calls-app. Verder zijn er zijn aangepaste versies van Photos, Camera en Music. De functies komen in een iOS-versie die later dit jaar uitkomt. Vermoedelijk gaat het daarbij om iOS 17.