'Apple wil in 2026 'LLM-Siri' uitbrengen die natuurlijke gesprekken kan voeren'

Apple is van plan om in 2026 een geavanceerde versie van Siri uit te brengen, schrijft Mark Gurman van Bloomberg. De AI-stemassistent zou intern bekendstaan als 'LLM-Siri' en moet op eenzelfde wijze 'natuurlijke' spraakgesprekken kunnen voeren als ChatGPT en Google Gemini.

Gurman verwacht dat Apple de nieuwe versie van Siri in 2025 aankondigt en dat deze in 2026 beschikbaar komt als onderdeel van iOS 19 en macOS 16. De stemassistent moet de huidige versie van Siri vervangen en maakt volgens de journalist gebruik van 'geavanceerdere large language models' zodat gebruikers tweerichtingsgesprekken kunnen voeren. Ook zou deze versie geavanceerdere verzoeken sneller kunnen uitvoeren en beter kunnen communiceren met externe apps.

Het is volgens de Bloomberg-schrijver de bedoeling dat LLM-Siri 'menselijker' wordt en taken op eenzelfde manier kan uitvoeren als ChatGPT en Google Gemini. Beide chatbots hebben sinds kort een spraakversie: Advanced Voice Mode en Gemini Live. Daarmee is het mogelijk om continu een gesprek te voeren met de bot, alsof de gebruiker een telefoongesprek houdt.

Apple voert momenteel stilaan enkele AI-functies toe aan Siri. Zo kunnen gebruikers vanaf iOS 18.2 ChatGPT oproepen via de stemassistent en moet Siri in een latere versie van het besturingssysteem vragen kunnen beantwoorden over wat de gebruiker op zijn scherm ziet. Ook moet het volgens Apple mogelijk worden om Siri opdrachten te laten uitvoeren binnen apps.

Door Kevin Krikhaar

Redacteur

23-11-2024 • 12:57

115

Lees meer

Apple kondigt iOS 18 aan
Apple kondigt iOS 18 aan Nieuws van 10 juni 2024

Reacties (115)

115
108
48
2
0
31
Wijzig sortering
2026?... Dus komende 1 tot 1,5 jaar latenz e de concurrentie gewoon keihard vooruit lopen en dan hopen ze in 1 klap net zo goed/relevant te zijn? Zeker met de huidige snelheid van AI ontwikkelingen is pas in 2026 ergens mee komen wel heel erg laat.
Wat ze misschien willen is dat je vooruitlopend daarop alvast een nieuwe iPhone koopt zodat er klaar voor bent. Ik zou gewoon wachten totdat het er is en dan kijken hoe goed het werkt.
Ik ben hier dus wel voor gevallen.

De verwachting was dat met de nieuwe iPhone 16 modellen, Siri aanzienlijk verbeterd zou worden middels AI update. Was toe aan een nieuwe telefoon, dus maar wat meer betaald voor een 15 pro (deze ondersteunt AI specifiek), maar blijkt later dat de update vetraagd uitkomt in de EU, en helemaal niet veel verbeteringen brengt naar Siri. Nu zijn we straks 2 jaar verder voor deze grap uitkomt, en is het bijna tijd voor een nieuwe telefoon. Naïef van me 8)7

[Reactie gewijzigd door Stronk op 23 november 2024 16:03]

Ik vraag me af hoeveel beter mijn ervaring op een smartphone zal worden met AI, of anders gesteld hoeveel ik mis zal lopen als ik geen AI op mijn smartphone heb. En zo heeft Apple wel vaker apparaten gelanceerd met aanwezige technologie die nog niet in elk werelddeel gebruikt kon/mocht worden. NFC-chip bijvoorbeeld. Ik kocht mijn iPhone 6 met die chip in de verwachting dat binnen een paar maanden ik ook met Apple Pay in eigen land kon betalen. Pas toen ik een jaar of drie mijn iPhone 8 had of zo had mijn bank Apple Pay geïmplementeerd. Ik had een andere bank kunnen kiezen om een jaar eerder dat te kunnen gebruiken maar zo verzot op Apple Pay was ik inmiddels niet meer. Ik kocht mijn iPhone 6 en 8 zelf, vlak na hun lancering als er geen grote drama’s in het nieuws kwamen zoals “antenna gate” van de iPhone 4. Later bleek de 6 toch vatbaar te zijn voor “bendgate” overigens. Ik heb naar mijn idee flink betaald voor die toestellen met verwachtingen om diensten te kunnen gebruiken maar dat viel vies tegen hoe lang dat op zich liet wachten. Inmiddels heb ik mijn iPhone 11 alweer bijna vier jaar. Dit keer niet in een winkel gekocht maar met een flinke korting via het verlengen van een abonnement omdat de iPhone 12 vlak daarvoor gelanceerd was en het publiek veelal het nieuwste van het nieuwste wilde hebben.

Ik denk dat met AI de geschiedenis zich weer zal herhalen zoals met die NFC-chip, het is een techniek die deels on device maar ook deels afhankelijk is van regelgeving en partners. Zolang mijn iPhone 11 het blijft doen, koop ik geen marketing verhaaltje wat in ons werelddeel nog niet beschikbaar is.
Dat het hele gebeuren niet of kreupel in de eu ging uitkomen was wel bekend, dus dat is geen argument. K ben wel akkoord dat het wat sneller mag. Misschien had Apple beter wat deals gesloten om sneller m e te zijn.
De hele privacy first insteek van Apple vraagt echter om on device verwerking van de input én afhandeling van zo veel mogelijk taken on device en daarna escalatie naar private ai in the cloud en dan pas partnerships. Met slechts partnerships zouden ze hun eigen filosofie aan de wilgen hangen.
Eens, maar waarom heeft Apple nog steeds geen eigen modellen en zijn ze überhaupt afhankelijk van partnerships?
Ze wilden maar al te graag een AR headset op de markt brengen. Alle energie daarin gestopt en je kan zien hoe dat faliekant is mislukt.
https://huggingface.co/models?search=Apple

Apple heeft zat modellen. Zelfs heel erg niet-des-Apple gepubliceerd.

Het zijn alleen taakspecifieke modellen en geen generieke LLM.
Fijn dat je even bepaald wat wel/niet een argument is, en wel even akkoord gaat dat het wat sneller mag.

8)7
Het valt gelukkig mee met de vertraging hier. In ± maart komen die functies uit. In april komen ze naar de EU.
Tja, dat was al een tijdje bekend op tweakers, zijn meerdere Posts over geweest voor de lancering nog van de iPhone 16.
Nu zijn we straks 2 jaar verder voor deze grap uitkomt, en is het bijna tijd voor een nieuwe telefoon
Misschien gewoon even normaal doen en niet elke 2 jaar een telefoon weg doen die nog 4 jaar minimaal mee kan. Ook een idee ;)
Nee juist niet. Gewoon elk jaar een nieuwe.

Disclaimer: ik ben zelf altijd een tweede/derde hands gebruiker en opzoek naar een betaalbaar nieuwe
Ik wil niet weer een ban ofzo maar de comments vragen om mijn aanvulling:
En geld betalen voor een freaking ringtone....

[Reactie gewijzigd door TweakerCarlo op 24 november 2024 08:50]

Met GarageBand kan je gratis je ringtone veranderen.
? Ik weet niet wat je bedoelt hier, je kan elk mp3tje gratis als ringtone instellen hoor.
Wat ik van de amerikaanse ervaringen over "Apple Intelligence" lees is niet hoopgevend. Simpele tekst assistentie wat 0,0 toevoegt aan wat ChatGPT kan. Los van meer geintegreerd zijn in het OS dan. De arrogantie om AI te rebranden naar je eigen merknaam, op een zak geld zitten waarmee je qua investeringen zowat iedereen eruit zou kunnen concurreren, en dan met het bericht komen dat je in 2026 zover zal zijn als OpenAI vorig jaar was. Dat lijkt me niet iets wat je als aandeelhouder wil horen. Microsoft heeft daar een iets slimmer besluit genomen.

[Reactie gewijzigd door CopyCatz op 23 november 2024 15:43]

Het feit dat het device only en privacy gefocust is, vind ik dan wel erg Apple.

Maar de trein van AI is al in volle snelheid. En Apple komt met AI in alleen Engels. LLM-Siri duurt voor Nederlands waarschijnlijk zo lang dat alles en iedereen Apple heeft ingehaald.
De tijd dat Apple later maar beter was ligt wel achter ons, lijkt het.
Dat device-only moet ik nog zien gebeuren. LLMs hebben vooralsnog echt reteveel rekenkracht nodig. Kijk naar hoe ‘traag’ ChatGPT schrijft. Dat is de beperking van het model en niet een cosmetische keuze.

Spraak-naar-tekst gaat gewoon prima lokaal, maar taal interpreteren en modelleren kost veel rekenkracht. Ook zijn de formaten van LLMs gigantisch.

Ik ben prive aan het experimenteren met een datamodel van NVIDIA. Die verbruikt 20GB videogeheugen en 40GB RAM. Wanneer hij aan het ploeteren, draaien m’n videokaart en CPU (8 cores/16 threads) op 100% zolang hij schrijft, en je ziet hem woord voor woord opbouwen.

Uiteraard kan een model geoptimaliseerd worden, maar het is wel gewoon serieus veel rekenkracht.

Disclaimer: dit model is wel aanzienlijk trager dan andere modellen die ik gebruik, maar hij is ook wel op eenzame hoogte qua kwaliteit.
Het is ter interpretatie natuurlijk. Siri draait ook niet volledig lokaal al suggereert de marketingmolen van Apple van wel. Bij Siri draait slechts de Spraak-naar-tekst lokaal, en wat lokale indexering, voor automatische suggesties in je agenda enzo, maar als je een Homekit-apparaat wilt aansturen, moet dat via de cloud voor verwerking.

We gaan het beleven. Misschien krijgt Apple het wel voor elkaar, maar ik heb er een hard hoofd in, mede door bovengenoemde ervaring.
Dit is iets wat Apple natuurlijk al langere tijd doet met veel nieuwe snufjes.

Ze kijken het vaak een lange tijd aan en introduceren het vervolgens zonder alle kinderziektes.
Nu heb ik nog niet heel veel positiefs gehoord over Apple's LLM situatie, en ben ik niet bepaald een Apple fan, maar meestal áls ze eenmaal iets releasen wat er al langer is, werkt het wel lekker.

Dit gepaard met het feit dat LLM's blijkbaar een plateau beginnen te raken, maakt het denk ik een goed moment. Ik weet niet of 2026 écht zo laat is. De competitie is er toch al en het gemak van een siri-update is iets waar enorm veel Apple gebruikers "by default" al gebruik van zullen maken. Één jaartje is ook eigenlijk helemaal niet zo lang.
vervolgens zonder alle kinderziektes
Dit is al een tijdje niet meer hoor. Helaas.
En dan op z’n vroegst over twee jaar in de EU en over twee-en-een-half jaar in Nederland. Wauw, ik kan niet wachten :o
Misschien niet opgevallen,maar volgens mij integreren ze dit al Sinds kort is de dicteerfunctie echt een heel stuk beter dan voorheen . Dat kan bijna niet zonder AI in van alles en nog wat.
AI/LLM zijn niet hun core-business. Beter iets implementeren op een later tijdstip zodat de kinderziektes eruit zijn en het fatsoenlijk werkt. Plus, de iPhone van 2026 SOC moet alles ‘lokaal’ kunnen draaien. En is dus niet te vergelijken met diensten die alles op een miljoen servers draaien.
AI en LLM zijn ook niet de core business van MS, Google, Amazon en META. Toch lopen die op het moment mijlen voor op Apple.

Het is ook niet dat Apple niets doet met AI. Ze hebben over de tijd heen al tientallen modellen gepubliceerd. Ze hebben alleen vooralsnog nog geen LLM. Het zijn meer taakspecifieke modellen.
Ze blijven het natuurlijk ontwikkelen he, het is niet zo dat ze nu pas beginnen. Ja AI gaat enorm hard, maar Apple is zelf ook al een tijdje bezig. ChatGPT zullen ze niet zo snel inhalen.
Goh …. AI mij laat het nog steeds compleet koud en al helemaal op een telefoon of tablet. Dus wat maken die paar maand uit, trouwens zoveel spectaculairs heb ik van de “concurrentie” ook nog niet gezien 🤷🏻‍♂️
Als AI “je koud laat “ heb je echt ontzettend onder een steen geleefd.
Ja goed das een dooddoener … ik heb nog niets waarvan ik denk goh dat maakt mijn leven duidelijk makkelijker. Daarom dat ik naar voorbeelden opzoek ben van mede-tweakers
Volgens mij pakken ze het slim aan want ze hoeven niets te investeren in het trainen van LLMs, alleen kleine SLMs. Ondertussen zal de open source wereld het bulk van de innovatie oppakken zoals nu al aan de hand is. Daarom brengen OpenAI en co geen grote nieuwe releases uit. Die pikken ook de krenten uit de pap, zoals de CoT techniek die ze in o1-preview hebben opgenomen. Wel lijkt Apple te investeren in eigen data centra met de eigen M-chips voor het verwerken van alle data met AI. En daarnaast streven ze ernaar om lokale AI toepassingen zoveel mogelijk lokaal via de Secure Enclave te laten verlopen. Dat lijkt een slimme zet, want privacy is nou eenmaal een onderscheidend concurrentievoordeel van Apple.

[Reactie gewijzigd door W32.il0veyou op 24 november 2024 19:50]

Maar, dan heb je wel iets wat goed gemaakt is. Tenminste, dat is het argument wat ik altijd hoor van apple fans.
Tegen die tijd gebruikt iedereen al ChatGPT, werkt ongelooflijk goed op al mijn Samsung Android apparaten.
Om tegen te praten? Prima inderdaad, maar wat voor assistent functies kan het uitvoeren dan? Laatste keer dat ik het bekeek kon het helemaal niks wat dat betreft. Ik neem daarom ook aan dat deze Siri versie wat langer op zich laat wachten omdat Apple er daadwerkelijk functionaliteit aan vast wil knopen en het integreren in de telefoon zoals de huidige Siri dat ook al is.
Ja chatgpt kan bv nog geen alarmen zetten of mails of WhatsApp doorzoeken, als Europa gaat eisen dat Android die diepere integratie moet toelaten gaat een enorme vooruitgang zijn...
ChatGPT in haar huidige vorm is een taalmodel. Het kan taal maken, gebaseerd op bekende data.

Dat is dus heel wat anders dan überhaupt commando’s uitvoeren. (Wekker zetten, of wat heftigers)
Mails en WhatsApps doorspitten moet dus wel mogelijk zijn, want dat is ‘slechts’ taal.

Het is uiteraard te bouwen, maar in de huidige vorm is de EU, niet de beperkende factor.

Ik denk zelfs dat het ‘Not-invented-Here’-syndrome ook nog een beperkende factor kan zijn voor veel zaken.
Gebruikt momenteel iedereen toch ook al? Werkt trouwens ook goed op iPhone :)
Ik ben benieuwd wat doe jij daar dan zoal mee ? Ik heb werkelijk buiten wat scripting niet echte usecases waarvan ik denk, had ik dat nu al maar 10jaar geleden gehad of wat ik niet kan vinden op het internet via een eenvoudige search.
Een lullige anekdote:

Vandeweek las ik een nieuwsartikel over een paar malloten die een ‘halfgeladen’ vuurwapen bij zich hadden op een vliegveld.
Mij zei die term niet zo veel. Op zoekmachines kwam ik niet verder dan allerlei nieuwsberichten over halfgeladen wapens.

Na 5 minuten het toch maar aan ChatGPT gevraagd en die vertelde dat het om vuurwapen gaat dat kogels draagt, maar er op dat moment geen in de kamer heeft. Inclusief een voorbeeld van een revolver waar kogels in zitten. Maar er op het moment geen een achter de loop zit.


Ik ben ook voor de lol experimenteel bezig met verhalen laten schrijven, maar daar zitten nog wel veel beperkingen in. Dus ik begin een plot. ChatGPT schrijft. Ik stuur waar het plot heen moet en weer verder.

Ik wilde wat intriges toevoegen, hoe iemand een ander gebruikt door een persoon te manipuleren om iets bij een ander voor elkaar te krijgen.

Daarvan vond ChatGPT heel Disney, dat het misschien een betere suggestie was om een positieve relatie op te bouwen en het gewoon te vragen. 😐

De “morele censuur” van ChatGPT is vrij strikt afgesteld. Ik snap (ergens) dat ze geen porno willen doen, of het afslachten of levend verbranden van pluizige konijntjes, maar hij is wel heel moreel strikt.

Nou zijn er zat andere taalmodellen die dit beter/vrijer kunnen (samen verhalen maken, met minder of zonder morele censuur), maar die spreken alleen Engels. En dat vind jammer.

Wat ik trouwens ook wel geinig vond, was dat ik om een ‘slapen-verhaaltje’ voor een kind vroeg, dat hij dan een verhaaltje maakte over een fee die iedere nacht langs kinderen en dieren gaat die niet kunnen slapen, om ze met wat feeenstof in slaap te helpen met lieve dromen. (Echt heel zoet!)

Ik heb echter een peuter, en daar was het veel te verhalend voor. Toen vroeg ik om het om te schrijven voor een peuter, en toen deed hij dat echt best goed. Hetzelfde plot, maar dan simpeler verwoord. Tot en met de namen van de karakter. (Van Fee Fiora naar Fee Fiep)
Zelf gebruik ik het vooral voor om dingen waarvan ik al wat weet wat diepgang te vragen, specifieke vragen, welke ik dan aan de hand van de antwoorden wel kan beoordelen of deze juist zijn (heerlijk dat de wereld op logica werkt).

En ook gewoon om bepaalde zinsvormen te bewerken e.d.

Zou ik zonder kunnen? Zeker.
Draait die dan on-device ?
Als dit model op device kan draaien waarschijnlijk wel. Misschien deels on device zoals nu. En als die zwaardere opdrachten moet verwerken via de "private cloud" waar apple apple het over had.
Persoonlijk verwacht ik dat het voice to text gedeelte wel lokaal werk, en dat het dan zelf beslist of de aanvraag naar de cloud moet of ook lokaal opgelost kan worden.
Je kan met de iOS developer beta al voice notes en andere geluidsbestanden omzetten naar tekst met de Apple Notes app
Waarschijnlijk niet. Dat doet Siri in de praktijk ook niet.
De spraak-naar-tekst is/lijkt lokaal, maar de verwerking gaat in de cloud.
Ik kan niet mijn lokale HomeKit (draaiend op een Apple TV richting mijn lokale Home Assistant) aansturen zonder werkende internetverbinding.

Ik weet niet of ik zonder internetverbinding een kookwekker kan zetten op dit moment.
Werkt deze Siri lokaal of is het server-side?
Ik denk beide, de simpele opdrachten die lokaal uitgevoerd kunnen worden gewoon device side, ga je lastigere dingen doen dan zal er wel meer compute nodig zijn en zal deze naar een private cloud verstuurd worden.
Dankzij de AI-hype hebben we nu minimaal 16GB aan RAM (net als die MBP die ik verkoop, zie mijn advertentie), volgens Bloomberg wilt Apple LLM-Siri, welke wij nu eigenlijk aan het trainen zijn, want daar is al die RAM voor. Hoeveel RAM krijgt de MacBook in 2026?
Alles wat je nu met Siri of AI doet is gedeeltelijk lokaal en dan de rest op internet, maar besef dat je eigenlijk software op je laptop/iPhone op de achtergrond aan het runnen bent voor iets wat je niet wilt. Dat kost toch ook batterij. Uitschakelen is betekent niet dat de software niet runt, maar dat je geen prompt krijgt. Alles komt met een prijs, bewust of onbewust.
Daarnaast een andere vraag: "Zou Tweakers misschien will bijhouden (misschien is er al een forum voor) hoeveel van deze Bloomberg uitkomen en tot hoe ver?"
De details zijn nier bekend, dus stellen dat het een specifieke hoeveelheid middelen gebruikt lijkt me wat voorbarig. Maar je hebt wel een punt wat betreft het bewustzijn over de middelen tegenover wat nog redelijk is. We hebben het al jaren over bloatware, tot in de vorm van applicaties en services die een groot deel vooral beschikbste middelen consumeren zonder duidelijke meerwaarde te hebben. Ik zou eigenlijk wel verwachten dat de ontwikkelaars en leveranciers een duidelijk inzicht geven in de overhead op het werkelijke gebruik. Want stellen dat de gebruikte middelen misschien nuttig zijn is niet snel een heel redelijk uitgangspunt.
Grote ambitie kijkend naar de huidige stand van zaken. Als het echt om menselijke gesprekken zou gaan dan verwacht ik wel vragen van Siri, en niet zozeer “hoe?” Of “waar?” Maar “waarom?” Dat ontbreekt toch echt nog wel bij de huidige LLM, een menselijke nieuwsgierigheid. Zonder dat, is het nooit menselijk/natuurlijk te noemen naar mijn mening, en verscheidene AI geleerden. Mocht dit lukken, dan zou Siri zomaar eens voorop kunnen lopen.
Gek dat dit zo lang duurt. Het lijkt me een ideale usecase voor LLM technologie. Maar Alexa en Siri zijn nog steeds volledig gescript :( Die van google weet ik niet want die ken ik niet.
Dus we moeten het nog een jaar (of twee) doen met de achterlijke versie van Siri die we nu hebben :Y)
Wat ik veel liever zie is een Siri die twee opdrachten tegelijk uit kan voeren, in bijvoorbeeld HomeKit. Een query als "Sluit de Luxaflex in de Slaapkamer en schakel de televisie in de Woonkamer in" is al te veel gevraagd. Letterlijk :').
Klopt inderdaad. Zelf komt mijn ergenis met Siri komt voor 50% voor uit HomeKit interacties, en de andere 50% uit de navigatieverzoeken in de auto.

Gaat echt om de simpelste opdrachten:
"Hey Siri lichten in slaapkamer 50%"
"Welke kamer? Woonkamer of Slaapkamer?"

"Hey Siri routebeschrijving naar Albert Heijn"
"Ik heb de volgende locatie gevonden, ik kan bellen of een routebeschrijving geven"

Wat het voor mij verdraagzamer heeft gemaakt is Siri spreeksnelheid op maximaal zetten in de instellingen. Dan wacht je niet zo lang wanneer ze voor de zoveelste keer naar redundante informatie vraagt.

[Reactie gewijzigd door Stronk op 23 november 2024 15:51]

Je kan een shortcut maken die de twee opdrachten uitvoert. Die kan je vervolgens weer vanuit Siri aanroepen. Je hebt dan wat je wil. Ik geef toe dat het een (te) starre oplossing is maar als je je voorbeeld vaak gebruikt is een shortcut een bruikbare manier om er eenvoudig mee om te gaan.
Maar kun je dan die twee Opdrachten in een Siri-verzoek doen? Ga je dan niet hetzelfde gedoe krijgen?
Dus we moeten het nog een jaar (of twee) doen met de achterlijke versie van Siri die we nu hebben :Y)
Nee dat niet, de Siri gedreven door apple intelligence is in de apple intelligence landen nu al uit en zal met de komende updates van iOS 18 verder verbeterd worden.

De Siri waar dit artikel om gaat lijkt daar gewoon een volgende versie van te zijn.

Goed nieuws wat mij betreft, Siri was de eerste (of een van de eerste) spraak assistent voor de massa maar Apple heeft het daarna veel te lang laten liggen, goed om te zien dat ze dat nu staps gewijs gaan aanpakken en niet weer jaren wachten.
Volgens de reviews op youtube brengt Apple Intelligence op het moment weinig verbeteringen naar Siri, vandaar mijn opmerking. Ik geloof dat we echt moeten wachten op de nieuwe Siri voor verbeteringen.

Maar ja, ontwikkeling is altijd goed inderdaad.

[Reactie gewijzigd door Stronk op 23 november 2024 16:27]

Volgens de reviews op youtube brengt Apple Intelligence op het moment weinig verbeteringen naar Siri, vandaar mijn opmerking. Ik geloof dat we echt moeten wachten op de nieuwe Siri voor verbeteringen.

Maar ja, ontwikkeling is altijd goed inderdaad.
Valt wel mee hoor, het is een gefaseerde uitrol. We zitten nu op pas iOS18.1 en 18.2 is in beta. De AI features aangekondigd op de WWDC worden zover we nu weten tot 18.4 toegevoegd.

Er is nog geen reden aan te nemen dat we op 2026 moeten wachten, dit gerucht gaat over de opvolging van de features eerder aangekondigd.

[Reactie gewijzigd door Donstil op 23 november 2024 17:30]

Wees gerust, over twee jaar zullen we inzien dat AI enorm is gehyped en ze veel minder kan dan nu wordt beloofd. Het zal een stuk beter worden, maar of het nou echt een nuttige toevoeging zal zijn? Ik betwijfel het.
Anoniem: 454358 @bursche23 november 2024 15:18
je gebruikt het dus niet, of je gebruikt het verkeerd. AI is bij ons inmiddels al onmisbaar. Echt bizar wat het nu al kan, en dat zal ongetwijfeld nog veel beter worden.
Geef dan eens een paar voorbeelden wat AI zo onmisbaar maakt. Ik ben oprecht geïnteresseerd
bwa, een vraag stellen aan Chatgpt levert vaak een beter en sneller antwoord dan met Google.
Ik ben dus heel erg benieuwd hoe het internet de komende jaren gaat wijzigen.
De kans is ook groot dat AI veel eenvoudige taakjes kan overnemen, dus ook daar zie ik wel mogelijkheden.
Kalm aan Gen-Z!! 😉

Niet iedereen ziet wat AI nu al in ons dagelijks leven doet. Het is nu al overal en nergens en het gaat heel snel het veel uitgebreid worden, maar er wordt ook wel heel krampachtig over gedaan.

Het is een beetje als de ‘Big Data’-mediahype van zoveel jaar terug. Overal en nergens Big Data. Nu nergens meer. De term is zelfs verdwenen, maar het is nog altijd. Overal.

AI is overigens een toepassing boven op Big Data. (Kort door de bocht). Over een paar jaar wordt niet overal en nergens gezegd dat AI foto-herkenning doet om een crimineel te vinden, of dat AI wordt gebruikt om je tanden schoon te maken.

Wat we niet kunnen ontkennen, is dat de marketingmolens van bedrijven en de nieuwsmakers van dit land, de term te pas en te onpas gebruiken. In negen van de tien gevallen voegt het benoemen van de term AI niks toe.
“Apple werkt aan een uitgebreidere versie van Siri” had ik de lading gedekt.

Straks zal het uit de dagelijkse mediatermen verdwijnen, en dan is het er gewoon.
Heeft toch niets met “boomer” te maken. Hoe gaat maakt AI mijn dagelijks werk/leven beter dan de tools die er nu al zijn. Net zoals @bursche zoek ik ook voorbeelden waarvan ik denk, dat doet AI nu anders en met betere inzichten dan ikzelf.
de AI hype train.
Ik zie weinig in spraak eerlijk gezegd. Stel je voor dat iedereen op kantoor zijn mail gaat dicteren.
Prive? Set mijn alarm om. Ja leuk.
Prive mail? Hoe vaak ben je wel niet zinnen aan het her typen?

[Reactie gewijzigd door lighting_ op 23 november 2024 18:13]

In de advocatuur waar ik werk wordt veel gedicteerd. Dat werkt super. Het is even wennen, maar de kunst is niet te proberen een perfecte brief te dicteren, maar een mooie kladversie waar je dan in gaat schaven. Dat werkt veel fijner dan de hele tekst zelf schrijven.
Zal vast voor sommige branches handig zijn.
Maar voor het overgrote deel. Ik geloof daar niet zo in.
Waar ik een LLM spraak model eigenlijk handig voor zou zien is echt als "slimme assistent". Dus iemand die je afspraken bijhoudt, die een kappers afspraak voor je maakt op verzoek, die je helpt herinneren wanneer je iets hebt, die misschien op Amazon nieuwe printerinkt kan kopen als je zegt dat het op is, noem maar op. En dan dat ik er onderweg (in de auto) mee kan praten.

Dat lijkt mij veel nuttiger dan "zet de lampen uit"
De meeste advocaten hebben toch een applicatie met voorgemaakte lappen tekst die ze aanroepen

Als je het toch moet nalezen dan lijk mij de winst al zeer beperkt. Kun je het net zo goed meteen typen.
Nou idd ik gebruik het ook verder helemaal niet, ben zelfs nog nooit op de website van chatgpt geweest.
Ik heb Siri al vanaf begin uit staan, heb ook geen alternatief in gebruik als google of Alema ofzo.

Er zijn vast nuttige dingen voor AI, in een ziekenhuis dat de pc makkelijk een botbreuk ofzo kan zien dan het menselijk oog bijv ofzo.
Zoals bij de ps5 pro nu dat het gebruikt wordt om je spel nog mooier te maken.

Maar idd privé zie er echt geen meerwaarde zelf in, ik zet wel zelf mijn wekker/ alarm, ik zet wel mijn eigen lampen aan en uit met de schakelaar of de kachel(Plan zelf wel mijn route via de navigatie in plaats van het te vragen).
Privé mail is 99% selecteer en verwijder, of even na de desbetreffende site gaan als bijv belastingdienst is ofzo.
Ook dingen verwijderen uit je foto's waarom toch, het was daar op het moment dat je het zag. laat die bank of iets toch lekker op staan als nog.
Mag hopen dat het allemaal optioneel blijft op je telefoon en pc, en je kan uitzetten(Of liever gezegd apart moet inschakelen).
Nou idd ik gebruik het ook verder helemaal niet, ben zelfs nog nooit op de website van chatgpt geweest
Geloof me, je gebruikt het vrijwel dagelijks alleen merk je het niet als alles goed werkt. Vrijwel elke service waar jij mee in verbinding bent heeft wel wat AI lopen.
O ja vast maar ik gebruik het ook met mijn ps5 pro, maar bedoel meer gebruik het niet zelf verder.
Niet als ik iets opzoek of wil weten, ik zal het ook niet gaan activeren straks in ios18 ooit op mijn iphone(Siri blijft ook gewoon uit zoals het nu ook staat).
Ik was er ook nog nooit geweest, tot afgelopen week. Ik had ruzie met Excel, kon via google geen oplossing vinden dus ik vraag eens aan de collega's om me heen of zij dat al eens gezien hadden. "Wat zegt ChatGPT?" zei een... Geen idee, nog nooit gebruikt. Toch maar eens geprobeerd en verhip, ook al vond ik wel forum threads waar mensen een zelfde soort probleem hadden als ik en stond daar geen oplossing, ChatGPT wist me toch naar de juiste setting te sturen waar ik het probleem mee kon verhelpen.

Dus, het kan soms toch wel erg handig zijn, al zal ik het ook niet snel gaan gebruiken om tekst of code te gaan schrijven of zo... Dat lijkt me helemaal niks.

Ik gebruik verder wel google assistant voor reminders, alarmen en licht aan of uit, maar daar is geen LLM voor nodig, dat zijn meer gesproken commando's.
Welk accent krijgt de (Engelse) stem? 'Cockney' doet het bij mij wel goed...
Mijn vermoeden zegt dat Apple gewoon de huidige stemmen zal houden?

Op dit item kan niet meer gereageerd worden.