'Apple AirPods kunnen live gesprekken vertalen vanaf iOS 19'

Apple werkt mogelijk aan een 'live translation'-functie voor AirPods. Dat zeggen ingewijden tegen Bloomberg. Deze feature kan in real time gesprekken vertalen naar een andere taal. De functie wordt later dit jaar toegevoegd via een software-update, zeggen de bronnen.

De nieuwe AirPods-vertaalfunctie is 'gekoppeld aan iOS 19', schrijft Bloomberg-journalist Mark Gurman op basis van zijn bronnen. De feature moet het mogelijk maken om gesprekken te voeren met mensen die niet dezelfde taal spreken als de gebruiker.

Als voorbeeld noemt de journalist een gesprek tussen een Spaanstalig en Engelstalig persoon. Als de eerste persoon iets zegt in het Spaans, dan wordt dat naar het Engels vertaald en vervolgens afgespeeld in de AirPods van de gebruiker. Als de Engelstalige gebruiker daarna reageert, dan wordt een Spaanse vertaling daarvan afgespeeld vanaf hun iPhone. Apple zou niet het eerste bedrijf zijn dat een dergelijke feature uitbrengt: Google biedt al jaren een soortgelijke vertaalfunctie aan met zijn Pixel Buds.

Gurman schreef onlangs al dat Apple van plan zou zijn om grote wijzigingen door te voeren in iOS 19, iPadOS 19 en macOS 16. Het zou gaan om een visueel redesign op basis van visionOS, het besturingssysteem van de Apple Vision Pro. Naar verwachting worden de updates in juni aangekondigd tijdens de volgende WWDC-ontwikkelaarsbeurs. Doorgaans komen nieuwe iOS-versies in september algemeen beschikbaar.

AirPods Pro

Door Daan van Monsjou

Nieuwsredacteur

14-03-2025 • 09:39

110

Lees meer

Reacties (110)

110
110
60
3
0
39
Wijzig sortering
Het probleem met "live vertalingen" zijn dat niet iedere taal dingen op dezelfde manier zeg, waardoor je pas kan vertalen als je de hele context van de zin hebt gekregen. Je ziet dit goed bij de live ondertiteling op teams. Teksten worden achteraf aangepast als de context duidelijker is. Ik heb weinig vertrouwen dat gesproken text ooit goed gaat werken.

Een voorbeeldje:
Een zin als "Ik trek iedere dag wel 5 keer de veters uit mijn schoen". In het Nederlands is het woord "uittrekken" opgesplitst. Een kennis van mij is professionele tolk en die had al eens gezegd dat je dan als vertaler gewoon zit te wachten totdat je woordje "veters" valt en pas dan kun je gaan vertalen.
Een vertaalsysteem staat toch niets in de weg om te wachten op die context? Zo werkt Google Translate trouwens ook al in gespreksmodus. In het scherm zie je eerst de woord-voor-woord transcriptie en vertaling, maar het wordt pas uitgesproken aan het eind zodra die context bekend is.
Er staat in de tekst dat het real time kan vertalen, maar dat is dus gewoon niet altijd mogelijk omdat je soms een deel van de zin moet afwachten. De universal translators uit Star Trek zijn helaas mythologisch :)

Ja je kan even wachten, maar dat noem ik niet real time.
Maar wat is real time? Als je het per milliseconde doet dan kan je alleen per klank vertalen. Er zal dus een moving window zijn. Dat kan best per zin zijn en nog steeds goed werken.
Met hele goede tekst voorspelling zou het misschien de context kunnen voorspellen voordat het uitgesproken is. Beetje creepy wel.
Je moet dit vooralsnog ook niet gebruiken om iets 100% correct te vertalen, dat is met alle automatische vertaal apps en functies nog steeds het geval. Maar het kan best een goed beeld geven van wat er gezegd wordt.
Dit is perfect voor mijn situatie. Ik zit denk ik echt in een hele bijzondere situatie.

Ik heb een half jaar in Japan gezeten en daar heb ik mijn vriendin ontmoet. Zij spreekt Japans, geen Engels. Ik spreek geen Japans. Wij vertalen al onze gesprekken.

Als we bij elkaar zijn gebruiken we google translate en onze interacties en uitdrukkingen maken de context opzichzelf al duidelijk dus we komen er altijd wel uit samen. Ik heb veel Japanse woorden geleerd en zij snapt veel Engelse woorden die ik gebruik waardoor we ook zonder vertaal app vaak weten wat de ander zegt.

Met chatten gebruiken we "Line". Dat is de chat app die ze in Japan gebruiken. Handige van die chat app is dat er ook een translator bot in ons gesprekje zit. Die vertaald engelse texten in het japans en japans naar het Engels. Nou zal ik eerlijk zijn. Dat is echt heel basic en het zit vol met fouten, dus ik gebruik persoonlijk ook AI (Chatgpt en inmiddels overgestapt op Claude) om alle gesprekken te vertalen. (Ja ieder chat bericht vertaal ik van Japans naar Engels en vise versa, en dan spreken we Japans via chat)

AI heeft ons echt geholpen om goed te communiceren en elkaar te begrijpen in chat. Maar in real life hebben we dat totaal niet nodig. Een chat bericht kan soms een lap text bevatten waar toch echt een goeie vertaler bij nodig is. In real life spreek je korte zinnen uit en kun je altijd nog aan de houding van de persoon en uitdrukkingen begrijpen wat die persoon bedoeld. Zelfs zonder vertaling lukt dat vaak in real life wel. Dus persoonlijk gaat dit ons denk ik ontzettend helpen om zo onze interacties nog beter te maken. Ik kan niet wachten tot dit uitkomt. Ik hoop dat het ook met AI gebruikt wordt. Zonder AI zullen er zeker tussen Japans en Engels veel fouten gemaakt worden.

In Japan praten mensen efficienter dan in het Nederlands of Engels. Ze gebruiken geen woorden als ik, wij, jullie, zij en jij. Het is een taal wat compleet op context gebasseerd is dus ze herhalen de ik vorm woorden totaal niet als ze met je in gesprek zijn. Het kan voor iemand die engels leest heel verwarrend zijn daardoor omdat in de vertaling de vertaler moet gokken of er Jij of ik bedoeld wordt. Dat veranderd de betekenis volledig in het Engels maar in het Japans wordt er niet jij of ik gezegd dus moet je op basis van context weten wat er bedoeld wordt.

Ik heb Claude zo getraind dat als ie moet gokken of het "jij" of "ik" is dat hij er haakjes omheen zet zoals hier: [ik]. Dan weet ik dat Claude niet zeker weet of dat de context is.

Maargoed, heel lang verhaal over mijn specifieke situatie. Deze functie gaat ontzettend goed zijn voor mij en mijn situatie. Ik ben Japans aan het leren en zij leert Engels. En iedere dag groeien we steeds meer naar elkaar toe in onze communicatie. Maar dit zou leven wel echt makkelijker maken voor ons!

Ps. als mensen goeie tips hebben voor mij of er soortgelijke producten al beschikbaar zijn die op basis van AI werken en goed vertalen. Please let me know! Ook zoek ik nog altijd een chatapp waar je gewoon kan chatten met mijn vriendin en waar AI direct mee vertaald. Nu ben ik steeds aan het switchen tussen Line en Claude en ben ik constant aan het copy pasten. Hier op tweakers zijn jullie denk ik net iets beter en slimmer hierin dan ik ben.

[Reactie gewijzigd door Nimac91 op 14 maart 2025 16:31]

Waarom Claude gekozen boven ChatGPT? Ik vertaal ook soms Japanse teksten.

Snel Japans leren is het beste denk ik. 😉
Chatgpt maakt ontzettend veel fouten. Ook kreeg ik bij Chatgpt (ook de 01 en 03(mini) modellen) vaak gekke antwoorden. Chatgpt wil nog wel eens geregeld antwoorden naar de persoon ipv te vertalen ondanks het feit dat de opdracht heel duidelijk is dat ie niks anders dan vertalen moet. Ongeacht of ik in het Japans of Engels iets stuur is er zo'n 5% kans dat ie gewoon antwoord naar me in de andere taal ipv vertaald. Dat zorgt voor hele gekke situaties waarbij ik ineens denk dat de tekst vertaald maar blijkt dat Chatgpt gewoon antwoord op een vraag in het Japans naar mij toe. Gelukkig snapt mijn vriendin wat er aan de hand is meestal maar het heeft toch wel eens voor verwarring gezorgd.

Naar mate je meer texten bij Chatgpt stuurt wilt ie steeds vaker fouten maken is mij opgevallen. Ook stuur ik soms een text en vertaald ie helemaal niet en antwoord ie precies dezelfde text terug als een soort error.

Bij Claude heb ik vrijwel nooit issues. De vertalingen van Claude blijken ook meer accuraat en zeker 3.5 en 3.7 van Claude geven mij echt goeie vertalingen.

Eens in de zoveel tijd start ik een nieuwe chat met claude en kopieer ik gewoon dezelfde prompt. Dan werkt het weer wat sneller. Anders worden de chats bijzonder lang.

Mocht je benieuwd zijn naar mijn prompt:
My girlfriend speaks Japanese and I speak English. We need help translating messages to each other. However, these messages should not have been altered in translation but still convey the same meaning. Also in Japanese words like I, you, we, they and similar things are not used since it is a language based on context awareness. I want you to make sure those words are translated correctly each time or put the word in brackets if you are unsure each time. Is this possible to permanently have as a guideline in this chat? I will simply paste either an English or Japanese message and you translate that message.
Tips voor betere prompts zijn welkom. Ik had dit ooit geprobeerd en dit werkte een stuk beter voor ons. Maar ik ben niet geweldig in het maken van prompts ben ik achter gekomen.

[Reactie gewijzigd door Nimac91 op 16 maart 2025 00:51]

Dank voor je antwoord en voorbeeld! Je gebruikt de betaalde versie van Claude, neem ik aan? Zal hier zelf ook naar kijken. Claude ken ik nauwelijks.
Ja ik gebruik de betaalde versie. Gratis kun je volgens mij 3.5 en 3.7 ook gebruiken maar heb je dagelijkse limieten. In mijn geval zou dat een probleem zijn dus betaal ik idd

Persoonlijk vindt ik Claude echt misschien wel de beste. Ik blijf alle nieuwe modellen en AI's testen, Deepseek, Grok, Gemini. Maar tot nu toe voelde Claude heel anders.

Ik hoor ook goeie verhalen over Chatgpt 4.5. Maar momenteel zijn de limieten zelfs voor betalende klanten zo laag. Na 20 prompts moet je al een week wachten ofzo dacht ik. Dus het is totaal niet practische voor mij.

[Reactie gewijzigd door Nimac91 op 16 maart 2025 19:25]

Typisch Apple dat zo'n functie gekoppeld wordt met Airpods terwijl het natuurlijk ook prima zou werken met (of zonder) een willekeurig ander setje oordopjes.
Apple heeft de speciale H2-chip ontwikkeld voor de AirPods Pro 2, waardoor real-time vertaling in perceptie mogelijk is. Dit model heeft een gemiddelde latency van ongeveer 126 ms. Ter vergelijking: een speaker heeft een latency van circa 83 ms, wat bijna als instant klinkt. De 126 ms latency is aanzienlijk lager dan bij eerdere modellen en heeft een grote impact op real-time toepassingen. Probeer dat maar eens met je JBL-oortjes, die een latency van 228 ms hebben.

Latency Airpods 2
Latency JBL oortjes
Die H2 chip mist de NPUs en gigabytes om een realtime vertaling voor je te doen, dat zal op een aangesloten device moeten plaatsvinden. Bovendien denk ik niet dat een paar milliseconden latency een issue is: de AI moet eerst uitvinden wat er gezegd wordt en kan daarna pas de overdub regelen dus denk meer aan hoe simultaanvertalers nu werken ipv aan "Star Trek" technologie.
Eerste waar ik aan moest denken toen ik het artikel las, "Star Trek, here we come"
Ook met een hogere latency werkt de technologie gewoon, maar dan met een paar ms vertraging.

Daarnaast heb je de JBL gekozen voor je vergelijking, maar uit jouw eigen bron zie je heel veel merken met een veel lagere latency.
Klopt, maar dit is een toepassing die ook door andere fabrikanten zal worden opgepikt. Het is even wachten op een Chinese kloon die het ook kan, maar dan goedkoper.
Samsung heeft deze feature al een jaar beschikbaar voor de Galaxy Buds i.c.m. en S24 Series of hoger.
https://news.samsung.com/...all-new-galaxy-s24-series

De vertaling gebeurt daar on device (ook in het Nederlands).
Ja dat is leuk dat ze de feature hebben maar deze werkt zooo slecht dat ze hem net zo goed weg kunnen laten.
Is dat nog steeds zo? Ik was altijd gek op Samsung vanwege de hardware, maar de software was altijd zo verschrikkelijk slecht. Niet alleen op telefoons hoor, maar ook op laptops, televisies en zelfs monitoren was het een drama. Het voelde altijd als een afterthought omdat de hardware toch al op specs verkocht was.
Ah, bedankt, ik had dit inderdaad ook gelezen maar er verder nooit meer iets van gehoord.
Maar dat is toch geen Chinese kloon, waar Wouterie het over had?
Heb je er er ervaring mee? Ik vraag me af hoe goed dit werkt.

Het lijkt me wel enorm handig om op zijn minst de basis vlot te kunnen communiceren in een ander land.
Heb alleen ervaring met de vertaling via de telefoon, heb mn Buds zo nooit gebruikt.

Via de telefoon is t vooral even beseffen dat, net als een echte tolk, je niet door elkaar moet gaan praten. Het gesprek is minder natuurlijk. Verder een heel fijn hulpstuk voor mijn gebrekkige Frans.
Typisch Apple dat zo'n functie gekoppeld wordt met Airpods terwijl het natuurlijk ook prima zou werken met (of zonder) een willekeurig ander setje oordopjes.
Ik ben geen expert, maar ik kan me voorstellen dat niet elk 'willekeurig ander setje oordopjes' ook goed geluid kan oppikken van je omgeving, want dat is nou net wat deze feature nodig heeft om de spraak van de persoon met wie je praat op te pikken. De normale microfoon (waarmee je belt) is doorgaans gericht op je eigen spraak, en juist niet van iemand die naast je staat.

De wat duurdere dopjes hebben wel microfoons voor omgevingsgeluid voor de ingebouwde ANC, maar dat betekent nog niet dat die omgevings-audio gedeeld wordt met de telefoon. Dus ik kan me best voorstellen dat deze feature niet zomaar met elk ander setje werkt.

Dus ik durf best te beweren dat er een reden is waarom Apple het (zeker in eerste instantie) beperkt tot de eigen AirPods Pro.
Vermoedelijk zit de magic in de software. De microfoons waren er al, maar de kunst is om het geluid zo te filteren dat de persoon tegenover je goed verstaanbaar is voor de vertaal-logica. Dat is nog niet zo makkelijk en ik denk dat je hier juist de H2-chip voor nodig hebt.
Ik had laatst eens zo'n 'willekeurig' ander setje in handen en de kwaliteit van zowel de weergave als de microfoon was gewoon zwaar onder de maat. Dat zal vast behoorlijk impact hebben op de prestaties van zo'n vertaalsysteem.
Denk dat er vast andere mogelijkheden zijn om een baseline vast te stellen maar snap ook wel dat Apple - zeker voor een eerste versie van zo'n feature - zich beperkt tot de oordopjes die ze door en door kennen en ook eventueel kunnen tweaken als dat nodig is.
Zie niet in waarom een fabrikant geen unieke functies zou mogen ontwikkelen
Gereageerd op verkeerde post, sorry :s

[Reactie gewijzigd door Dlsruptor op 14 maart 2025 10:44]

De reden is omdat ze dan zeker weten dat het voor iedereen hetzelfde werkt en waarschijnlijk goed ook
Apple AirPods kunnen live gesprekken vertalen vanaf iOS 19
Kunnen AirPods de gesprekken vertalen? Of vertaalt de iDevice het gesprek maar laat Apple dit alleen maar toe als er gebruikt wordt gemaakt van AirPods?

Denk het laatste, en vind het slecht dat het een AirPods functie wordt benoemd..

[Reactie gewijzigd door Christoxz op 14 maart 2025 10:05]

Het lijkt me dat het inderdaad de iDevice is die het eigenlijke werk doet, maar ik kan me ook voorstellen dat de Airpods ook een onmisbare schakel zijn. Bijvoorbeeld doordat ze de audio naar de iDevice streamen met een nauwkeurige timestamp, zodat je met 2 pods tegelijk er richtingsinformatie uit kan halen, ofzo.
De microfoon van Airpods (zeker die met hoorapparaat functie) kan ook omgevingsgeluid oppikken en doorsturen in plaats van alleen wat de drager zelf zegt. Denk dat dat een vrij kritische schakel is voor deze functie.
Ik vraag me af of de iDevice dat doet of een dikke AI-bak ergens in een datacenter. ;)
Je hebt gemist dat iPhones, iPads en macs tegenwoordig behoorlijke 'neural processing units' hebben juist zodat dit soort functies ook werken zonder datacenter en privacy kopzorgen?
Wat ik had begrepen is dat de NPU voornamelijk een hardware accelerator is die leunt op de cloud computing services. Ofwel: doet deze live vertaling dit ook offline?
Ja natuurlijk. De iphones zijn krachtig genoeg om dit on device te doen en het lijkt me ook niet meer dan logisch want geen internet betekent ook geen werkende functie. En Apple gaat echt geen complete datacenters hiervoor uitrollen als een idevice hier ook gewoon rekenkracht voor heeft.
Dat gaan we pas zien als de feature officieel wordt uitgerold, maar het zou mij verbazen als het niet zo was.
Apple gaat juist heel hard voor privacy belofte en on-device functionaliteit.
En dan sta je als gehoorapparaat gebruiker dus weer op achterstand.
Nou als je airpods nodig hebt om dit te gebruiken, heb ik er niets aan, want ik heb hoorapparaten nodig. En in mijn geval uitgevoerd als Cochlear impantaat. Ik kan daar wel naar streamen met BT, maar de handel van Apple met koppelverkoop van Airpods gaat aan mij voorbij.
Ik snap dat het heel vervelend is als er tech wordt gemaakt waar jij niet optimaal van kan profiteren of andere een voordeel geeft waar jij geen gebruik van kan maken. Maar bekijk het ook eens van het perspectief van de fabrikant. Hij zal zich op een specifieke groep gebruikers richten waar hij denkt geld aan te kunnen verdienen. Goede kans dat in dit geval Apple gekozen heeft voor een grote doelgroep. Daarnaast zou het heel goed kunnen dat deze technologie later aangeboden gaan worden op iOS zelf. Misschien zelfs wel bij introductie.
Wat jij zegt is een herhaling van de klacht; Apple kiest ook voor een grotere doelgroep, namelijk horenden. Daar zit het geld. Daarmee worden slechthorenden buitengesloten. Best lullig als het ook anders kan.
maar is dat niet inherent aan praktisch elke feature voor in-ear koptelefoons van welke fabrikant dan ook? :)
Meestal wel maar in het geval van de functie waar deze thread over gaat dus niet
Ik snap wel wat je zegt daar maar als slechthorende ben je hier sowieso al erg bekend mee. Zelf heb ik ook gehoorapparaten en in deze wereld is het vrij constant dat naarmate je dover bent dat er steeds minder nieuwe tech voor je beschikbaar is of zelfs überhaupt in ontwikkeling is.

Om maar een voorbeeld te geven, je hebt verschillende klassen gehoorapparaten en voor de meest lichte klassen is er van alles beschikbaar terwijl voor mijn zwaarste klasse gehoorapparaat de nieuwste feature bluetooth 7 jaar geleden was.
Dat alles geeft me vaak eerder het gevoel dat het helemaal geen gegeven is dat zulke hulpmiddelen beschikbaar gemaakt zullen worden omdat het bijna zeker niet veel op zal leveren.
Cochleair implantaten werken inderdaad niet samen met AirPods, maar geheid dat er andere toepassingen en merken komen met bredere implementatie van deze technologie. Met de explosie aan AI en LLM-toepassingen de afgelopen jaren is de stap naar spraak niet heel groot meer.
Maar apple is juist het enige merk dat ook een hoorapparaat functie aanbiedt. Dus je kan de airbuds gebruiken in plaats van je hoorapparaat.

Ben geen apple fan hoor maar ik vind het wel cool dat ze dat doen. Zelf zoek ik juist het omgekeerde: oordopjes die het omgevingsgeluid kunnen verwijderen behalve de stem van een bepaalde persoon. Door mijn neuro diversiteit kan ik dat zelf niet goed.
Brr, ben ik de enige die kriebels krijgt van een implantaat met bluetooth? 😱
Als ik naar mijn schoonpa kijk, is het voor hem het verschil tussen afzijdig houden en isolement versus mee kunnen doen in de maatschappij, verjaardagen, werk etcetera. Dan speelt dat ineens een heel andere rol.
Waarom maakt bluetooth daarin het verschil? Gehoorapparaten bestaan al veel langer dan bluetooth. Waarom is het tegenwoordig nodig om overal een netwerkverbinding in te stoppen, ook bij problemen die decennia geleden al opgelost waren?
Bluetooth is op moment dat je wil bellen een superoplossing, omdat je direct gestreamd word, is de spraakkwaliteit het beste. En omgevingsgeluid wordt op een laag niveau gezet tijdens het gesprek.
En ook voor tv kijken, vergaderingen met Teams, gestreamd geluid van je laptop: onmisbaar.
Tuurlijk ging dat vroeger ook zonder Bluetooth, maar immens veel onhandiger en achtergrondgeluid ging ongewenst mee. Zoals @pauldaytona al zegt, voor tv en computer is het zo ontzettend veel beter dan vroeger. dat je het gewenste geluid kan selecteren en elke storende andere bron kan negeren. Qua comfort is dat te vergelijken met 200km fietsen in de regen of in een auto warm en droog overkomen. Met beide bereik je het doel, maar het één voelt net wat beter.
Ci bestaat uit een implantaat, waarin de signalen die van buiten komen omgezet worden in stroompjes die via draadjes zenuwen in het slakkehuis aansturen. Aan de buitenkant van het hoofd het externe deel, waarin accu, microfoons, electronica, en dus ook de BT en nog een andere draadloze techniek.
Aluhoedjestweakers gespot! :+
Mag ik vragen hoe de geluidskwaliteit is van zo'n implantaat, kun je muziek luisteren bijvoorbeeld? Zat me net even in te lezen, eigenlijk getriggered door jouw opmerking dat je BT kunt streamen.
Geluidskwaliteit is zoals lange golf radio. Of minder. Lage tonen ontbreken, begint bij 200-250 herz. Hoge tonen gaan eigenlijk het beste. M'n andere oor doet nog wat lage tonen dus die vult dat wat aan. Muziek kan je luisteren, maar blij wordt je er niet van. Muziek die minder gecompliceerd in elkaar zit gaat beter dan drukke stukken.
Maar ik ben er toch blij mee omdat ik anders geen gesprek meer zou kunnen voeren. Omdat het in nederland maar voor één kant vergoed word, is horen in gevallen waar meerdere mensen praten zeer problematisch. Ik kan ook niet hoten waar geluid vandaan komt. Lastig in het verkeer.
ah ok, en natuurlijk snap ik dat het voeren van een gesprek het allerbelangrijkste is. Wist overigens niet dat er maar 1 implantaat wordt vergoed, echt Nederland weer.

Dank voor je reactie.
Als je aan 2 oren doof bent krijg je er maar 1 vergoed van de verzekering?! Dat is echt gemeen. Is het zo belachelijk duur om beide oren te doen ofzo?
Ik begreep juist van Lieven Scheire dat hij juist iemand kent die dat al als universal translator gebruikte. Staat in zijn boek.
Nu is het Airpods, maar deze technologie is domweg breed aan het doorbreken. Je kunt nu al “gewoon” een vertaalapp gebruiken.
Ik zou de ontwikkelingen van het bedrijf: Oticon in de gaten houden. De ontwikkelingen gaan inmiddels op technologisch vlak zodanig snel dat ik mijzelf er wel een voorstelling bij kan maken dat Oticon hier binnenkort ook mee komt qua feature. Je kan deze devices tegenwoordig al koppelen met de meeste tech, waaronder smartphones, concoles, computers etc.

Maar u bent hier waarschijnlijk al van op de hoogte.
"Innovatie is waardeloos want ik heb er nu nog niets aan."
net zo op achterstand als iedereen die geen Apple gebruikt? 8)7
Zou het ook West Vlaams kunnen vertalen ? Als je bekijkt hoe vaak een translator al fouten maakt en dan moet het nog gesproken worden. Van Engels naar een taals zal meestal nog wel lukken, maar Nederlands naar Frans bijvoorbeeld is een ramp. Engels naar Frans is al iets beter. Mooi, maar wil het wel eens real live testen
De grap is dat juist als het breder gebruikt wordt de modellen best fors kunnen verbeteren. Vrijwel alle basismodellen van LLM's of stable diffusion worden beduidend veel beter als een breder publiek het gaat specialiseren.
"Zou het ook West Vlaams kunnen vertalen ?"

Dat kun je van geen enkele dienst verwachten.. hahahaha heerlijk...
Zou wel heel dik zijn als dit goed uitgewerkt wordt. Helemaal voor vakanties.
Ik zie alleen niet zo goed in hoe het werkt als de ander geen soortgelijk apparaat heeft. De taxichauffeur praat in het Thai tegen jou en jij hoort het in het Nederlands of in het Engels wat hij zegt. Maar hoe leg je dan in het Thai weer uit dat de chauffeur een beetje vlot moet doorrijden omdat jij anders je vlucht mist.

Edit: artikel niet goed gelezen, staat in de tekst.

[Reactie gewijzigd door PlasticPimple op 14 maart 2025 10:46]

Dat vertaald je telefoon dan weer (speelt hij af). Nog onhandig voor een goede discussie maar wel voor een praktisch voorbeeld zoals het jouwe denk ik.
Dat staat toch in de tekst van het artikel? Die vertaling wordt afgespeeld op je iPhone zodat de taxichauffeur het kan horen.
Dat staat toch in de tekst van het artikel? Die vertaling wordt afgespeeld op je iPhone zodat de taxichauffeur het kan horen.
Excuus, je hebt gelijk.
En daar gaan we weer. Apple kondigt wéér een revolutionaire functie aan—deze keer een live vertaalmogelijkheid voor AirPods—maar als we iets geleerd hebben van het Apple Intelligence-debacle, is het dat we dit soort aankondigingen met een flinke korrel zout moeten nemen.........
Apple Intelligence zou dé grote AI-doorbraak worden, maar hier in de EU hebben we er nog steeds niets van gezien, zelfs niet in iOS 18.3. Ondertussen horen we elk jaar dat de nieuwste iOS-update “de grootste ooit” is, terwijl de praktijk vooral bestaat uit uitgestelde, onvolledige of tegenvallende features. Denk ook aan Siri, die pas in 2026 of 2027 een beetje fatsoenlijk zou moeten gaan functioneren. Waarom zou het met deze vertaalfunctie ineens anders zijn? Een AI-model dat bij Apple tot nu toe nauwelijks indruk maakt, gaat nu vlekkeloze live vertalingen verzorgen? Ik geloof er echt heeeeeel weinig van. Tot het tegendeel bewezen is, blijven mijn AirPods gewoon high-end oordoppen voor muziek en telefoongesprekken—de enige toepassingen waar Apple nog wél consistent in levert.
Apple kondigt dit nu helemaal niet aan, tenminste, als ik het artikel mag geloven zijn het 'ingewijden' die dit kennelijk weten te melden, of zoiets.
Apple zelf heeft dit (nog) niet officieel aangekondigd, maar het patroon is inmiddels wel bekend. Eerst lekken ‘ingewijden’ iets, dan wordt het opgehypet als de volgende grote innovatie, en uiteindelijk krijgen we of een halfbakken feature of een uitgestelde release—vooral in de EU, waar Apple tegenwoordig steeds minder moeite voor lijkt te doen. Dus ja, officieel is dit nog een gerucht, maar als het werkelijkheid wordt, zal het waarschijnlijk weer zo’n “de grootste update ooit”-verhaal zijn waar uiteindelijk weinig van terechtkomt.
Uw post begint met 'Apple kondigt weer iets revolutionairs aan....' maar we reageren hier op het nieuwbericht. Dan zijn uw aannames precies dat: aannames. Het nieuwbericht is er duidelijk over dat Apple dit nog helemaal niet heeft aangekondigd.
Dat klopt, Apple heeft het nog niet officieel aangekondigd, maar als we naar het verleden kijken, zien we telkens hetzelfde patroon: lekken vanuit ingewijden → mediahype → uiteindelijk een aankondiging met grote woorden → teleurstelling in de praktijk, vooral voor EU-gebruikers.

Dus ja, strikt genomen is het een aanname dat Apple dit als revolutionair gaat brengen, maar laten we eerlijk zijn: gezien hun track record is dat geen gewaagde gok. Als dit uiteindelijk toch een officiële aankondiging wordt, voorspel ik nu al dat het weer één van die "de grootste update ooit"-verhalen wordt, waarbij de daadwerkelijke functionaliteit of uitgesteld of ondermaats zal zijn.
vooral in de EU, waar Apple tegenwoordig steeds minder moeite voor lijkt te doen.
Dat heeft natuurlijk alles te maken met de veelheid van talen hier waardoor de investeringen ten opzichte van het aantal klanten een stuk hoger zijn.
Daarnaast helpt het natuurlijk niet mee dat de EU veel probeert te reguleren. Of je het er nu mee eens bent of niet: op z'n minst moet ieder Apple product nu eerst door een controle heen om na te lopen of het geen EU wetten schendt. Ook dat remt de ontwikkeling behoorlijk af.
Ik snap dat de EU-regels een rol spelen, maar laten we eerlijk zijn: Apple gebruikt dit vooral als excuus. Dit is een bedrijf met honderden miljarden op de bank, dat zonder problemen investeert in diensten zoals Apple TV+ en Arcade, maar als het om AI en software-innovatie gaat, is de EU ineens ‘te ingewikkeld’.
En ja, de veelheid aan talen maakt het misschien lastiger, maar dat geldt net zo goed voor Google en Microsoft—en toch hebben zij hun AI-diensten wél in de EU uitgerold. Voor mij voelt het gewoon alsof Apple steeds minder moeite doet voor EU-gebruikers. Ze passen hun systemen razendsnel aan als het gaat om belastingvoordelen of App Store-regels die hen geld kosten, maar als het om innovatie gaat, moeten we altijd wachten. Dus nee, daar ga ik helaas niet in mee......
Voor mij voelt het gewoon alsof .
Dat is dus puur speculatief en alleen op jouw onderbuik gebaseerd.
Het hebben van honderden miljarden op de bank (wat niet waar is btw, het is rond de 50 miljard) is geen vrijbrief voor bedrijven om er maar mee te gaan smijten. Een CEO die dat doet staat snel op straat.

Ben ook wel benieuwd welke innovatie van Apple je mist die Google en/of Microsoft wel bieden. Gemini krijgt net zo hard kritiek om het over Windows Recall maar niet te hebben...
Mijn eerdere schatting van Apple's cashreserves waren te hoog; volgens recente gegevens bedroegen deze in 2024 ongeveer $65 miljard (link 1) . Toch is dit een aanzienlijk bedrag, en gezien Apple's geplande investeringen van meer dan $500 miljard in de komende vier jaar (link 2) , lijkt er ruimte te zijn voor investeringen in AI-ontwikkelingen ;)

Wat betreft gemiste innovaties: Apple heeft de lancering van AI-functies voor Siri uitgesteld, waardoor ze achterlopen op concurrenten als Google en Amazon . Terwijl Google's Gemini 2.0 en Amazon's verbeterde Alexa al beschikbaar zijn, wachten we bij Apple nog op vergelijkbare updates. Dit roept vragen op over Apple's positie in de AI-ontwikkelingsrace.​
Een race heeft een duidelijk gedefinieerd eindpunt. Op dit moment is het compleet onduidelijk wat dit eindpunt gaat zijn en of het meerwaarde heeft er vroeg bij te zijn. Voor hetzelfde geld doet Apple het juist heel goed door heftig investeren uit te stellen tot er wel een zinvol doel gevonden kan worden.
Apple kondigt dingen aan via ingewijden.
Dmv 'lekken' laat Apple weten dat ze aan iets werken. Daarmee proberen ze te bereiken dat de klant nog 'even' wacht en niet overstapt naar een concurrent die de functie wel heeft.
Als dat net zo goed vertaald word als sommige zaken op facebook etc krijg je heule interessante gesprekken :+
Die 'girlfriend translator' is wel echt hilarisch! En pijnlijk herkenbaar. ;)
mja ik had laatst in een printergroep dat die de luiers niet goed kreeg... werden natuurlijk layers bedoelt
We hebben een collega hier die al zijn mailtjes met Google Translate omzette naar het Nederlands. Blijkbaar dacht hij dat we geen Engels konden lezen of zo... Hoe dan ook was dat echt behoorlijk slecht. Facebook zit geregeld nog onder dat niveau.
Precies wat ik ook dacht 🤣
Toen dat geschreven werd en toen ik dat voor het eerst las was het ondenkbaar.
Werkt dit bij die Pixel Buds een beetje fatsoenlijk? Of moet ik daarbij denken aan het niveau van de automatisch gegenereerde en vertaalde ondertitels op youtube?
Oeh, dan denken ze dat je een hersenbloeding hebt als je zo gaat praten!

Op dit item kan niet meer gereageerd worden.