Mark Gurman: Apple voert opnieuw gesprekken met OpenAI over AI in iOS 18

Apple voert opnieuw gesprekken met OpenAI over de eventuele integratie van AI-technologie in iOS 18. Dat schrijft Mark Gurman. De twee bedrijven zouden eerder dit jaar ook al gesprekken hebben gevoerd. De techjournalist meent dat er nog geen beslissingen zijn genomen.

Volgens Mark Gurman is het lang niet zeker dat er een deal tussen de twee Amerikaanse bedrijven komt. Apple zou immers ook met Google aan tafel zitten over de integratie van de Gemini-chatbot in iOS 18 en gesprekken voeren met AI-startup Anthropic over diens AI-technologie. Gurman is van mening dat iOS 18 enkele nieuwe AI-functies zal bevatten. Sommige van die functies zouden ook gebruikmaken van Apples eigen taalmodellen. Voor andere AI-functies zou het Amerikaanse techbedrijf dan weer richting andere derde partijen kijken. De kans bestaat dat Apple op 10 juni meer informatie over iOS 18 en generatieve AI zal geven. Het bedrijf houdt dan zijn jaarlijkse ontwikkelaarsconferentie WWDC.

Google Gemini op Apple iPhone
Google Gemini op Apple iPhone

Door Jay Stout

Redacteur

27-04-2024 • 13:28

77

Lees meer

Reacties (77)

77
74
30
0
0
24
Wijzig sortering
Nu nog? Je zou toch verwachten dat iOS 18 al wel een beetje afgerond is? Over iets meer dan een maand wordt het aangekondigd.
Siri is, hoe dom ze soms ook kan zijn, al een AI-taal model die langere tijd in iOS zit. Mogelijk is het nu alleen nog de juiste backend vinden waar ze hun Api calls naar toe moeten aanpassen (héél kort door de bocht)
Komt het wel op neer volgens mij. Misschien wel beetje zuur voor het Siri team. Maar ja, volgens mij is die generatie (incl. Cortana, Alexa en die van Google) nooit echt heel succesvol geweest buiten misschien Amerika
Succesvol zijn de Alexa en Google wel… maar … wat zijn ze “dom”. Nauwelijks mogelijkheden voor aansturing met meerdere opdrachten; zet lampen aan, instensiteit 50% en speel muziek in woonkamer …. Google, uuuuh Alexa uuuuh.

Die smart home dingen vind/vond ik initieel erg praktisch, maar na aantal jaar loop je tegen zo veel (onlogische) beperkingen aan.

Je zou verwachten dat een Apple/google/amazon hun diensten al vorig jaar naar de AI geüpgrad hadden … lijkt me qua learning niet heel ingewikkeld.

Ach jah, wie zien t wel - langzaam lijkt opensource meer mogelijkheden en potentie te gaan bieden
Probleem is ook dat Google hun assistent dommer heeft gemaakt de afgelopen jaren. Ik heb een lenovo clock met google assistant die ik voornamelijk gebruik om kookwekkers te zetten. Vroeger kon je meerdere wekkers zetten en als er 1 afliep, kon je door "herhaal timer" die wekker resetten (handig voor vlees te draaien e.d.). Nu zegt hij altijd "er zijn meerdere wekkers, welke bedoel je" en ook al geef je de naam, 99.9% van de tijd negeert hij dat en blijft hij gewoon herhalen dat er meerdere timers zijn. Als zelfs dat niet meer gaat, is de assistent gewoon compleet nutteloos geworden.

Het enige dat hij nu nog doet is zeggen wat voor weer het is en de radio aanzetten (voor dat laatste gebruik ik een koppeling met mijn Harmony afstandsbediening want zelfs het commando om het juiste radiostation aan te zetten is in de loop van de tijd al 100x gewijzigd - doorgaans moeilijker/slechter).
Gebruik Siri dagelijks, in het Nederlands. Zowel thuis als in de auto.
Maar of het succesvol is/je succesvol bent, is een tweede.
“Hey Siri, play my music everywhere” (op alle speakergroepen dus)

> playing “Everywhere” by Fleetwood Mac..

Google Assistant maakt dezelfde soort fouten. Ik hoop dat er snel verbetering gaat plaatsvinden.
"Hey Siri, play <willekeurige song>"
"There was problem with Apple Music"
"Hey Siri, reboot; Hey Siri play <song>" -> nu werkt het

Iedere... keer... hetzelfde.
En als je begint met "Hey Siri, reboot" werkt het niet. Het moet 1x fout gaan, daarna reboot, daarna precies hetzelfde commando als de eerste keer.

Kan niet wachten totdat "Siri" (of hoe het gaat heten) _werkt_.
“Hey siri, zet de airco aan”
“Ik kan geen wekker vinden met die naam”

Sowieso is het een raadsel hoe je überhaupt muziek aan zet met verschillende HomePods en hoe je die muziek verplaatst of er meer HomePods aan toevoegt. En dus doe je alles maar weer handmatig, want dan weet je zeker(der) dat het wel goed gaat.
Soms moet je iets specifieker zijn met een woordje erbij waarmee het systeem een relatie legt en andere dingen uit sluit. Hier werkt: “hey Siri, zet de airco op XX graden” altijd zonder haperingen.

[Reactie gewijzigd door Dennisdn op 22 juli 2024 18:38]

Dit inderdaad. Mijn gehoor is slecht en thuis hebben we dus geleerd om zinnen te gebruiken waarbij het gemakkelijker is om context te begrijpen (Ik heb het niet door als ik een woord niet versta, want de hersenen vullen dat ongemerkt zelf in en dus wil je duidelijke context) Als gevolg hiervan werkt Siri wat ons betreft geweldig.

Ook is het belangrijk om minder vloeiend te spreken, veel mensen hebben het niet door maar die hebben geen pauze meer tussen de woorden en een zin verwordt tot een lange variabele klank.
Zelfsmetlezenwordtdatalraplastig

Je moet je gewoon bedenken dat Siri half doof is :P

[Reactie gewijzigd door Groningerkoek op 22 juli 2024 18:38]

Ik sommige gevallen snap ik dat, maar in dit geval… de namen komen niet overeen en de gevraagde actie ook niet.
Het blijft wel behelpen hoor. Hoevaak Siri hier op de gekste momenten spontaan restaurants uit de buurt begint op te dreunen twijfelen we inmiddels stevig aan onze kookkwaliteiten…
Hey Siri, wake me up at o'clock werkt altijd, laat ik het zo zeggen wat ik met Siri doe werkt, maar ik doe er dan ook niet zo heel veel mee.
Is dat een fout van Siri of van jou omdat die geen correcte Engelse zinsbouw gebruikt. Ik snap het wel maar je gebruikt een niet correcte vertaling van het Nederlands naar het Engels om een vraag te stellen.
Het irritantste vind ik now device name confusion. Als ik een livingroom tv, lamp, speaker en verwarming heb. Snapt hij nooit wat ik wil. Turn on the lights in the livingroom, gaat de tv aan. Play music in the livingroom, “Livingroom doesn’t support that”

Hoezo zit er los van naam geen type id in waar Alexa kijkt.
Ik zou het niet iedere dag gebruiken als het niet zo was. Natuurlijk zit er af en toe wel eens een fout tussen, maar dat lijkt me logisch. De interactie tussen computer en mens is nooit foutloos, in geen enkele modaliteit.
Ik ook, omdat ik weet dat een aantal functies wel goed werken. Maar voor een heleboel dingen vraag ik Siri niet omdat er toch niets zinnigs uitkomt.
Het zou mooi zijn als dat verbetert.
Naar mijn weten werkt Siri niet op dezelfde manier als LLM’s. Alle modellen van de generatie van Siri werken met het naar intents terugleiden van de naar tekst omgezette spraak. Die intents en hun output zitten als vaste, door mensen vooraf gedefinieerde structuren in het model, en zijn beperkt in aantal.
Heel anders dan echte LLM’s waarin de output het gevolg is van een black box met een enorme hoeveelheid parameters die door training zijn ingesteld en niet door mensen begrijpbaar zijn, en waarvan het aantal verschillende mogelijke outputs niet vaststaat.
Dat zou op zich makkelijk te combineren zijn. Een simpele prompt als hieronder zou al een enorme verbetering zijn:

je taak is een intent-gebasseerde assistent te helpen. Hieronder is een lijst van verschillende intents: [intent, meer_intent]. Beoordeel of de gebruiker een van de intents wil gebruiken, zo ja, geef dan in json-formaat de volgende kenmerken terug: [hier de kenmerken]. Zo nee, probeer dan de vraag zo goed mogelijk te beantwoorden.

De obvious gevallen hoef je natuurlijk niet door te sturen, want dat kan Siri nu ook al.
Dat zou inderdaad een van de manieren zijn die openAI al gebouwd heeft in GPT4 (of al in 3.5?). En lijkt me inderdaad een vrij makkelijk te maken ‘ombouw’.

Al maakt het niet alles nog slim genoeg, Siri heeft toch al eens last van bepaalde namen interpreteren. Of dat ligt aan speech-to-text of eerder aan de manier waarop de text wordt gematched aan datasets durf ik niet te stellen
Aangekondigd ja, maar de release is pas in September/Oktober. Daarnaast, komen er tussentijds meerdere updates voordat iOS19 komt.
Dat zal gebruikt en geupdate worden tot eind 2025, nog watbtijd dus
Is al 15 jaar. release midden September, maar ik kan 't mis hebben...
Voor een aankondiging hoeft je product niet af te zijn he, zeker gezien we tegenwoordig massa beta testers zijn met iOS
Het zou wel tof zijn als de gesprekken uiteindelijk niet betekenen dat ze de techniek van OpenAI/Google/etc gaan gebruiken maar dat ze Siri geschikt maken voor deze ai modellen.

Dat je bij de eerste keer starten van Siri de keuze krijgt welke AI je erachter wilt gebruiken. Een beetje zoals met het nu beschikbare browser keuze selectie scherm.
Met hopelijk de optie: “Laat maar zitten, ik hoef géén Ai in m’n besturingssysteem.”
Er zit al best wat verweven in vrijwel elk modern OS. Ik denk dat ze dat er niet meer helemaal uit gaan slopen. Het zal ook niet gek veel werk zijn, het meeste is natuurlijk modulair binnen (systeem) apps (camera app voor beeldverwerking, toetsenbord app voor spellingscontrole, etc.). Maar op enkele Tweakers na vind bijna iedereen dat wel prima.
Toetsenbord spellingscontrole is (nog steeds) om te lachen.. Een wekker/timer zetten via Siri is al een opgave en moet je dubbel checken om zeker te zijn dat je eitjes op tijd uit het water mogen 😂

Nee, Apple en Ai is niet een combo waar ik naar uit kijk.. (in bezit van MacBook’s, Apple Watches, iPad Pro en Studio Display).


Dus laat het een keuze zijn om wel of geen ai te gebruiken a.u.b.
Ik zet mijn wekker altijd met Siri.
"Zet wekker om vijf uur tien." Als het na 17.00 uur is, wordt keurig de wekker om 5.10 uur aangezet. Nooit omgekijke naar gehad. Sinds de laatste iOS update ben ik alleen mijn standaard wekkertune soms kwijt. Dat vind ik minder, maar heeft niet smet Siri van doen.
Ook een timer zetten met Siri gaat bij mij altijd goed.
"Zet timer op 10 minuten voor eieren".
Maar goed, misschien spreekt niet iedereen accentloos Nederlands.
Tot op voor kort ging dit niet zo soepel met timers.

Toen was het: “zet een timer voor vier minuut twintig”
Reactie: “ik kan geen timer starten op een tijd. Ik heb een wekker om vier uur twintig gezet”

Ik vroeg niet om een wekker. Ik heb nergens het woord “uur” gebruikt.

Om het te laten werken moest je vragen om een timer van vier minuten en twintig seconden.

Bovenstaand voorbeeld is overigens niet meer valide. Ze hebben het in iOS 17.2 gefikst, maar niet helemaal.
Als je nu mijn voorbeeldzin gebruikt zet hij een timer voor vier minuten. Het getal er achter negeert hij.
Als je vraagt om een timer vraagt van drie uur vijftien, zet hij een timer die zal aflopen om kwart over drie. (Dus effectief een soort wekker, maar dan in de vorm van een timer afloopt).

Je moet dus echte eindigen met woorden minuten of seconden (of hun enkelvoud).

Mijn ervaring met Siri is dus heel wisselend. Zodra je een verzoek geeft dat op een andere manier is gescript snapt hij het niet.
Het lijkt er dus op dat er een vracht vooraf bepaalde zinnen zijn gewhitelist zijn en dat hij alleen die begrijpt. Er lijkt geen “intelligentie” in te zitten of besef van Nederlandse spreektaal. En dat is jammer voor een mechanisme dat al zo lang bestaat en bediend wordt met stemcommandos.
Een A.I. die je kan vertellen dat er 15 liter olie nodig zijn voor het produceren van 5 liter mayonaise, je mist heel wat.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 18:38]

Heel handig dat je de vraagstelling er niet bij hebt staan. Als je het goed vraagt krijg je geen onzin: https://tweakers.net/foto...drG3oJ3oCp4cCJNm6nQk3.png
Dat kan ik je wel vertellen, ik vroeg simpelweg naar de ingredienten die er nodig zijn, heel expliciet.
ChatGPT is er heel goed in om zichzelf te slopen door het wel, of juist niet, rekening te houden met eerdere data.
Ook lijkt hij gebruik te maken van caches die nogal eens roet in het eten gooien. Waarbij een eerdere calculatie of aanname tepas en ontepas bias introduceren of eenvoudigweg niet aangepast en onjuist is.

In plaats van het probleem bij de gebruiker (ik) neer te leggen zou je het ook gewoon als één voorbeeld kunnen nemen van de vele manieren waarop ChatGPT breekt en niet zomaar voor waar gezien moet worden.
Dat was mijn onderliggende punt. Het is een overschat interessant stuk speelgoed, niet een voorbeeld van AI die je overal zou moeten willen implementeren zonder te begrijpen hoe ze wel en niet werken, om er effectief gebruik van te kunnen maken.

Het heeft mij meer dan 50 queries en correcties gekost om een eenvoudige javascript functie te genereren die een wiskundige operatie doet.
Vragen om de zelfde berekeningen uit te voeren op twee argumenten gaf volledig andere waarden.
Spelenderwijze kom je er achter dat het vereidelde prul is, waar je meer werk in moet stoppen dan er nuttig uit komt. Wel 'grappig' als je niets beter te doen hebt.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 18:38]

Spelenderwijze kom je er achter dat het vereidelde prul is, waar je meer werk in moet stoppen dan er nuttig uit komt. Wel 'grappig' als je niets beter te doen hebt.
Je geeft een LLM eigenschappen (wiskundige, programmeur, de waarheid zeggen) die het simpelweg niet heeft. Het is een tekst generator die "voorspeld" welke tekst uit een bepaalde prompt gegenereerd moet worden. Zolang je dat niet begrijpt zal je het als een "grappig" ding blijven beschouwen en de waarde die het je kan leveren niet kunnen benutten vrees ik.
Nee hoor, ik heb mij bovengemiddeld in het topic verdiept. Sterker nog, dit is een thema die mij al ruim anderhalf decennia bezighield, meer als gedachtenoefening en verwondering over ons eigen leren, aanpassen en onthouden, alsmede vanuit psychologisch, filosofische en religieuze overwegingen, a la 'tree of life', causal of bayesian trees, fractals, noem maar op. Maar goed. Zo spraken wij al over dergelijke modellen en hoe een GPU/memory en fast/approx floating point ops zich hier ideaal voor lenen. Muteren, in waarde/gewicht/verbindingen groeien, waar gaat onze attentie naartoe en draait/verbuigt ons denken en leven omheen, wat brengt samen of vervalt, etc. Dromen en wensdenken op dat moment, vaag gefantaseerd. Ruimtelijk en visueel, conceptueel, nooit heel concreet.

De twee uitdrukkelijke problemen die ik aanhaal zijn duidelijk een symptoom van de implementatie in/met hun front-facing/intermediair service, geen eigenschappen van een LLM zelf op zich.
Wat je invoert en terugziet is niet uitsluitend input/output naar/van het model.

Daar ben ik mij van bewust maar doet niet af van het punt mbt. het product zelf.
Ik zeg nergens dat LLM's 'grappig' zijn, toch?

Grappiger is dat mijn reactie ongewenst is. Zal iemand wel menen het beter te weten maar het niet kunnen weerleggen danwel salty/jaloers. Jammer voor hem of haar.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 18:38]

Hier klopt toch ook geen fluit van, voor 5 liter mayo met een verhouding olie / eigeel van 3:1 verwacht ik dat het antwoord 3,75 liter is (dan heb je drie delen olie en 1 druk eigeel). Of ik zit enorm te prutsen met hoofdrekenen :P

(En hij deelt geen olie door eigeel in de vergelijking, het rekenwerk lijkt nergens op. Desalniettemin zijn er veel dingen die de modellen wél kunnen trouwens…)

[Reactie gewijzigd door pietervanw op 22 juli 2024 18:38]

Bij mij zegt hij dat hij voor 5 liter mayonaise, 2 liter olie nodig heeft. Geen idee hoe je daarmee 5 liter mayonaise kunt maken.

"Voor 5 liter mayonaise heb je ongeveer deze ingrediënten nodig:

- 2 liter plantaardige olie
- 20 eierdooiers
- 300 ml azijn
- 50 gram mosterd
- Zout naar smaak"
Dan is de vraag wel: welke vraag stel je met het antwoord ‘voor 5 liter mayo heb je 15 liter olie nodig’.
Met andere woorden, als AI zo gevoelig is voor woordkeuze, heb je dan eigenlijk niet gewoon Siri 1.0? Je moet van goede huize komen om het te bedienen.
GPT 3.5 is ondertussen ook wel erg oud, zeker omdat de ontwikkelingen zo snel gaan.
Ik krijg nu dit antwoord:
https://chat.openai.com/s...81-4efa-863d-c30792e96751
Tja. de 'nieuwe' GPT's krijgen daar wel veel betere antwoorden uit hoor. https://copilot.microsoft.com/sl/kDAUhjfKh6i
Het is een 'smart' phone he. Maar op zich zou het fijn zijn als je daar voor zou kunnen kiezen. Maar wat ik hieronder ook al lees, er zit natuurlijk al een hele shit 'AI' in eigenlijk alles wat je gebruikt.
Of gewoon alle ai modellen tegelijkertijd kunt gebruiken zoals merlinai dat ook kan.
Dat zou wel een gave optie zijn idd.
Het klinkt misschien raar maar ik heb een gevoel dat die AI's slechter aan het worden zijn.
Ik kom steeds vaker tegen dat een antwoord nergens op slaat en volgens mij was dit in het begin niet. (Het kan ook zijn dat het WOW effect weg is)
Zo stelde ik vorige week de vraag als een ingedrukte vering meer weegt dan een niet ingedrukte. Het eerste deel van het antwoord was goed en het 2de deel sloeg gewoon nergens op en ging over iets heel anders. (Een ingedrukte vering heeft opgeslagen energie en weegt hierdoor meer)
Hiervoor vroeg ik eens een vraag over hoeveel energie een bepaald particle had en ik kreeg ook het meeste bizarre antwoord over metingen in bananen. :+
https://imgur.com/VmAICFQ
Hoi, sorry bedoel het niet brutaal, maar misschien dat de tweede gedeelte afkomstig is van verkeerd begrepen/gebruik van de formule E=mc^2, dus opgeslagen energie kan omgezet worden naar massa en daardoor weegt het meer.
Maar hoe hij aan banaan komt weet ik niet, er staat wel iets in over array-experiment en er bestaat dus "banana array," wat misschien dit als antwoord geeft.

Eerst was ray-tracing een hype en nu AI. Hebben we echt in ons cpu een speciale gedeelte nodig voor AI niet geheel wetend welke informatie het van ons als input gebruikt en deelt met derde.
Slechter??? Welke AI gebruik je?
Ik hoop dat alles omtrent AI gewoon uit te zetten is.
Zo niet, dan verkoop ik mijn 15 en koop ik een andere welke ik kan flashen met Graphene.
Persoonlijk zit ik niet op AI te wachten.
AI zit echter nu al in je iPhone. Denk bvb aan patroonherkenning op foto's. Automatisch worden alle foto's waar een persoon opstaat aan elkaar gelinkt. Zo is er een mapje met de foto's van mijn dochter van geboorte tot nu (6 jaar) die ik nooit getagged heb. Door patroonherkenning ziet de phone dus wel dat die bij elkaar horen.
Ja dat is allemaal prima, maar ik word een beetje moe van alle geruchten dat Google en of MS AI geimplementeerd gaat worden in ios18. Ik wil dat helemaal niet. Al helemaal Google;s versie, want dan kan ik net zo goed overstappen op Android. Prima als AI gebruikt wordt om het me makkelijker te maken op iOS, maar dan wil ik een Apple AI en niet die van Google of MS.
Je hebt nu Apple AI, gecombineerd met Google zoeken...
The future is now old man
en waarom dan? wat is precies je probleem met 'AI'? Zeg maar, mij maakt het niet zoveel uit. Tot op heden alleen nog maar nuttig gebruik van kunnen maken, ook op het werk is het een handig hulpmiddel. Zie het als een rekenmachine, ik gebruik het als ik denk dat het zin heeft en het me sneller verder kan helpen.. zo niet dan niet toch?
Mensen met een dergelijke mening, die niet gebruik willen maken van AI, snappen wat AI inhoudt en hoe het de productiviteit van - alles - kan verhogen.

Pure vraag, hoe gebruik je AI in je dagelijkse leven en in je werk?
Zou wel mooi zijn dat AI straks een beetje goed geintergreerd is in alle telefoons, hopelijk is dat net tegen de tijd dat ik aan een nieuw toestel toe ben. Dan maar eens kijken welke voor mij persoonlijke het meest ideale is
Een echt mens is voor jouw beter dan een koude machine, ondanks dat zo'n machine in een datacentrum op zeer hete temperaturen loopt. Dit is enigszins persoonlijk naar jou, ga om met echte mensen, onafhankelijk van computers, je nickname zegt het al, ik ben zelf ook autistisch. ( Asperger Syndroom )
Ha, hoe is dat niet appels met peren vergelijken. Ik kan toch wel een hoop dingen verzinnen die je wel aan een AI kan vragen maar die je vriendin (of een willekeurige vriend) niet kan beantwoorden. Wat als ik een specifiek feitje wil weten? Of snel een samenvatting krijgen van een artikel wat ik zomaar in AI kan plakken. Of iets heel simpels zelfs als met je stem snel een timer zetten. AI gaat evenmin mensen vervangen als mensen AI gaan vervangen, het zijn gewoon losstaande dingen.

Kan niet wachten tot de integratie fatsoenlijk is, mijn stem wordt nu toch al naar Apple gestuurd zodat Siri mijn taak 'set a timer for 5 minutes' kan beantwoorden met 'Oh, I'm sorry but I do not have any information about a flamingo flyer forfeit mauritania, but I found this on the web for you'. Lijkt me een zaligheid als we straks een ingebouwde AI assistent hebben die niet ruk is.
Misschien je telefoon en commando’s dan toch in het Nederlands uitvoeren. Siri heeft bij mij namelijk geen enkele moeite met mensen bellen, timers zetten en routes maken naar contactpersonen.
Ik wil niets te maken hebben met OpenAI en die creep Sam Altman die ook Worldcoin runt (cryptocurrency). Je weet wel, dat bedrijf dat voornamelijk arme mensen hun iris last scannen met een ‘orb’ voor een paar kruimels.

Als iets van OpenAI in mijn telefoon komt gaat het direct uit.

[Reactie gewijzigd door Q op 22 juli 2024 18:38]

Kruimels met crypto goud is nog steeds beter dan alléén gebakken lucht dat WorldCoin alle online bots zou stoppen en alleen echte mensen online zou moeten laten communiceren, maar vervolgens de mensen hun WorldCoin ID gewoon aan bots verkopen en men niet eens de verificatie invoert op platformen die het ondersteunen….
Hoe dan ook zal Apple toch zeggen dat het enkel werkt in het nieuwste topmodel. Dit is geen flame, ik gebruik al 15 jaar een iphone en ipad en zie het keer op keer gebeuren.
In de praktijk zijn de verschillen tussen de ‘pro’ modellen en de rest meestal juist minimaal, afgezien van hardwarematige verschillen zoals een extra camera of andere kleurtjes om uit te kiezen.

Het schiet ook niet echt op als Apple zo’n deal moet sluiten voor de minderheid die een pro-model koopt.
Nouja, liever OpenAI dan Google z’n AI. Wat een drama is/was dat. Had liever Apple’s eigen AI gezien wat lokaal op je telefoon draait. Ookal is het 1000x kleiner.
Ik zou echt voor openAI kiezen, dan Google AI...want ik voel niet echt prettig als het ook voor advertenties wordt gebruikt.
Ik houd me intensief bezig met LLM en heb eigen tests ontwikkeld om de capaciteiten per model nauwkeurig te testen. Ik hoop dat Apple niet met Google in zee gaat, want het topmodel Gemini is absoluut een stuk zwakker dan de betere modellen van OpenAI en Anthropic. Ik durf zelfs te stellen dat het recente open-source Llama 3-model van Meta in staat is om Gemini Ultra op meerdere gebieden te overstijgen.
Persoonlijk gebruik ik Gemini net zo vaak als ChatGpt, en ik merk weinig tot geen verschil...
Persoonlijk gebruik ik Gemini net zo vaak als ChatGpt, en ik merk weinig tot geen verschil...
voor een telefoon is niet de topprestatie leidend denk ik. Ook de vraag hoe snel, hoe efficiënt, wat kan lokaal, en natuurlijk prijsonderhandelingen tussen Apple en Google /OpenAi /anders.

Ik denk overigens dat iedereen hier die roept 'ik wil het uitzetten' daar nog van terugkomt. Zodra je telefoon je wel goed begrijpt en wel goede samenvattingen geeft en wel slimme waarschuwingen en tijdige info (niet zoals assistants tot nu toe) en je wel goede voorstellen krijgt voor mails en je agenda's met andere agenda's in gesprek gaan om wel makkelijk tot een goede afspraak te komen, dan is AI niet alleen meer in je telefoon, maar in alle OS en apps en gaat het gewoon heel handig zijn.
Gemini Ultra het topmodel noemen is licht misleidend, het is nog steeds hun grootste maar tegelijkertijd loopt het een generatie achter.

1.5 Pro is feitelijk het topmodel, zelfs als het goedkoper is.
Temple OS Al geprobeerd, glowie? :Y)

Op dit item kan niet meer gereageerd worden.