Visuele intelligentie komt naar Apple iPhone 15 Pro

Apple zegt dat de functie 'visuele intelligentie' uitkomt voor de iPhone 15 Pro. De functie om camerabeeld als input te gebruiken voor AI was tot nu toe alleen beschikbaar voor de iPhone 16. Hij zit ook op de nieuwe 16e.

Gebruikers van de iPhone 15 Pro kunnen na een toekomstige iOS-upgrade de Actieknop toewijzen aan visuele intelligentie, schrijft Daring Fireball op basis van een briefing met Apple. Dat kan de iPhone 16e ook. Beide telefoons hebben geen Cameraregelaar, de knop op de zijkant die bij lang indrukken visuele intelligentie opent. De functie is nog niet beschikbaar in de Benelux.

Het gaat om zoeken via beeld, onder meer door beeldherkenning en herkenning van tekst. Zo kan de functie teksten in beeld vertalen, bekende plekken opzoeken en producten herkennen. Visuele intelligentie is onderdeel van de reeks AI-functies die Apple heeft gemaakt voor zijn telefoons. Apple Intelligence-functies zijn alleen beschikbaar op de iPhone 15 Pro en de iPhone 16-modellen, vanwege de gebruikte soc en het benodigde werkgeheugen van 8GB. Dat hebben andere iPhone-modellen niet.

De iPhone 16e lijkt op de iPhone 14, maar heeft de A18-soc uit de iPhone 16. Ten opzichte van de 16 gaat het om een gebinde versie met vier in plaats van vijf gpu-kernen. De 16e heeft een C1-modem zonder ondersteuning voor Wi-Fi 7 en mmWave-5G. Wel maakt de modem volgens Apple een langere accuduur mogelijk dan andere modems.

Apple iPhone 15 Pro en 15 Pro Max
Apple iPhone 15 Pro en 15 Pro Max

Door Arnoud Wokke

Redacteur Tweakers

20-02-2025 • 16:13

25

Reacties (25)

25
25
12
1
0
11
Wijzig sortering
Is dit in de basis niet precies hetzelfde als Google Lens?

Ik vraag me af waarom hier nu opeens AI voor nodig is terwijl Google Lens al jaren lang nagenoeg foutloos werkt zonder die buzzwords.
Het verschil is volgens mij dat Google Lens alles wat je voor de camera houdt upload naar Google. Terwijl dat Apple Visual Intelligence er in principe op je eigen apparaat naar kijkt.

Het is wat lastig om dat precies te verifiëren. Bij Google Lens zeggen ze niet expliciet op de webpagina dat ze alles naar Google Images zoeken sturen. En bij Apple Visual Intelligence is er de optie om door te sturen naar Google of OpenAI's ChatGPT.

Handleiding van Apple: https://support.apple.com...e/iphone/iph12eb1545e/ios

Verder werkt Apple Visual Intelligence nu nog niet in de EU. Dat zou moeten veranderen in April dit jaar.

[Reactie gewijzigd door Henk Poley op 20 februari 2025 16:32]

Het analyseren van foto's om zoekresultaten erbij te zoeken ,al onvermijdelijk betekenen dat je iets naar het web stuurt
Op die wijze zijn ze dan ook niet identiek.

Apple Visual Intelligence kan je in de basis het beste zien als een systeem voor blinden om voorwerpen om hen heen op zicht te herkennen. Met wat taken voor ieder ander die wel kan zien er een beetje bijgehaald ("hoe gebruik ik dit ding?"). Het is niet zozeer bedoelt om op het internet te zoeken.

Ik verwacht dat het de komende 5-6 jaar nog wel een beetje sappelen is. Tegen die tijd zijn de iPhones 2-3x sneller, en weten we beter welke informatie nuttig is om in zo'n neuraal netwerk te persen. Apple's huidige model is 6,4B groot, met nog wat (beschadigende) compressie. En "de magie" lijkt rond de 7B - 15B te gebeuren. Dat zo'n systeem ongeveer alle HBO-niveau examen vragen meestal goed beantwoord.
Bij Apple Intelligence is dat optioneel - je kunt het ook on-device uit laten voeren (dat is zelfs de default).
Het is even geleden dat ik Lens gebruikte, maar ik meen dat er in Lens ook de optie bestaat om het wel niet te delen. Ik denk echter dat dat gaat over het gebruiken van de afbeeldingen om het algoritme te trainen, in plaats van alleen om door het algoritme beoordeeld te worden.

[Reactie gewijzigd door Coffee op 20 februari 2025 19:27]

Google Lens gebruikt ook gewoon AI hoor
In 2010 kwam Google Goggles uit, toen werd de term OCR en image-recognition gebruikt. Toen Google Lens uit kwam in 2017 werd de term "deeplearning" en "neural network" gebruikt. Nu is de term AI.

Google trends, deeplearning vs ai

De techniek verandered, maar ook het "Jargon" veranderd.
Gaan we nog verder terug dan komt simpele spellingscorrectie met registers, de meest oude vorm die we hebben, ook weer uit ‘AI labs’. AI is een term die we al heel oang tegenkomen en voor van alles is gebruikt.
De computer tegenstander in een spelletje Pong wordt ook al AI genoemd, ondanks de logic niet veel meer is dan het batje ter hoogte van de bal te houden. Het is gewoon een veel ste breed woord dat te pas en te onpas toegepast wordt. Met deze definities kan je een bewegingssensor voor een buitenlamp ook wel AI noemen ... maar het belangrijkste is dus nog wel dat het kunstmatig is, hoe slim het zich ook voort doet, het is "maar" een programma. En wat dat betreft is het wel een goed woord ervoor.
Lens is ook gewoon AI/algoritme, zoals zoveel bij Google.
Hoe dacht je dat Google Gmail zo mooi al die emails weet te categoriseren?
Lens bestond al voor ai een serieuze optie was
Elders werd dit ook al gezegd, maar het zijn alsnog machine learning vision models. Het heeft nu enkel het 'AI' label gekregen vanwege marketing.
Is dit in de basis niet precies hetzelfde als Google Lens?
Dezelfde functionaliteit inderdaad, maar dan handig voor Apple gebruikers die geen of niet veel Google diensten gebruiken.

Welkome aanvulling dus!
In Cupertino weigerden ze tot vrij recent om het AI te noemen, maar sinds Chat-GPT de wereld veroverde is dat allemaal natuurlijk op z'n kop gezet. Machine Learning, Deep Learning en Neurale Netwerken klinken niet zo sexy in de marketing, maar worden samen met Generatieve AI tegenwoordig op één grote hoop gegooid en verkocht als kunstmatige intelligentie.

Die vertaalmogelijkheden en objectherkenning van Google Lens zijn ook alleen maar mogelijk omdat het model getraind is op meerdere gigantische data-sets, al verdienen ze zeker lof voor de ingenieuze en extreem snelle "stukje lokaal en de rest in de cloud" implementatie.

Ze waren ook zeker veel eerder met Google Lens eind 2017, maarrrr veel vergelijkbare functies zitten inmiddels ook al enkele jaren in iOS, iOS 15 bracht OCR wat ze Live Text noemen, objecten en personen herkennen in een foto kwam met iOS 16.

[Reactie gewijzigd door Vyo op 20 februari 2025 16:48]

Cupertino weigert altijd om gangbare termen te gebruiken voor technologie. Ze gebruiken nooit termen als AI, VR/AR, etc. Ze willen altijd hun eigen termen hanteren, omdat ze daar copyright op kunnen zetten en ze proberen altijd het direct vergelijken te voorkomen. MKBD heeft hier volgend mij een keer een video over gemaakt.
Ik betwijfel of de gangbaarheid van de term 'AI' nut heeft toegevoegd voor ook maar iets anders dan marketing.

Apple gebruikt overigens wel degelijk de term AR; dat doen ze met regelmaat in combinatie met de Vision Pro, en het onderliggende framework van de SDK heet ook gewoon ARKit.
Voor developers misschien wel, maar niet voor de producten naar de consumenten toe.
Dus Apple gebruikt de echte officiële geïndustrialiseerde termen niet maar verzint gewoon maar wat? Geen wonder dat op professioneel gebied (bedrijven, industrie, geneeskunde, labo's, technologie, enz...) weinig tot geen Apple producten worden gebruikt. Het is gewoon een hobby merk.

[Reactie gewijzigd door SE USER op 20 februari 2025 23:28]

Bedrijven gebruiken weinig Apple? Zit je hier geen anekdotes te extrapoleren? Zeker iPhones zijn immens populair voor zakelijke smartphones.
Omdat het ook via internet moet doorzoeken om een afbeelding te herkennen, lijkt me wel een geval van AI.
Is de Pro Max nu ook included or niet?
Aangezien de specs hetzelfde zijn is dit ook voor de pro Max.
Apple heeft al heel lang een Vision API dat objecten en tekst kan herkennen.
https://developer.apple.com/documentation/vision/

VNRecognizeObjectsRequest herkent objecten en er is zo’n zelfde call voor tekst.

Dat ze het hebben verbeterd geloof ik zeker maar doen alsof het iets totaal nieuws is klopt niet.

[Reactie gewijzigd door HenkEisDS op 20 februari 2025 21:34]

Op dit item kan niet meer gereageerd worden.