Gerucht: OpenAI werkt aan smartphone met AI-agent als interface

OpenAI zou werken aan een eigen smartphone, waarbij de primaire interface een AI-agent is die taken uitvoert. Dat meldt analist Ming-Chi Kuo. De smartphone zou over twee jaar in productie gaan.

OpenAI werkt met chipontwerpers MediaTek en Qualcomm, claimt Kuo. Het is onduidelijk waarom OpenAI met beide bedrijven zou werken. Meestal kiezen smartphonefabrikanten een van beide chipontwerpers per model en rusten dat uit met een soc van Qualcomm of MediaTek.

De interface zou bestaan uit het werk van een AI-agent in plaats van rijen en kolommen vol iconen. Dat zou het omgaan met de smartphone ingrijpend veranderen. Een AI-agent, die deels lokaal en deels in de cloud werkt, zou taken uitvoeren voor gebruikers, in plaats van het gebruik van apps.

OpenAI zou een smartphone willen maken, omdat het erop lijkt dat die de komende jaren het centrale apparaat blijft in het leven van veel mensen. Bovendien bevat die veruit de meeste informatie over gebruikers, waardoor de AI-agent taken het best kan uitvoeren.

De smartphone is niet de enige hardware waaraan OpenAI zou werken. Samen met oud-Apple-ontwerper Jony Ive is OpenAI bezig het opzetten van een hardwaredivisie en het eerste product zou voor het einde van het jaar moeten uitkomen. Dat is vermoedelijk een slimme speaker.

Weg van de appiconen, dat wil iedereen al heel lang

Het streven om de werking van de smartphone te veranderen door de appiconen te vervangen is er al heel lang bij veel verschillende bedrijven. Deutsche Telekom liet al eens een telefoon zien die apps zou vervangen door AI. De Chinese fabrikant Meizu had dat plan ook al.

Telekom T Phone zonder apps
Telekom T Phone zonder apps

Langer geleden zijn dat soort initiatieven ook al vaker geprobeerd. Zo focuste het besturingssysteem BlackBerry 10 uit 2013 zich op een universele inbox voor berichten en meldingen, vanwaaruit gebruikers ook konden antwoorden. Daarvoor had Windows Phone 7 al geprobeerd om een nieuwe interface gemeengoed te maken door informatie uit apps op het homescreen te laten zien met tegels. Beide besturingssystemen hebben enkele jaren bestaan, maar zijn inmiddels verdwenen van de smartphonemarkt.

Screenshot Windows Phone 7Microsoft Windows Phone 7Microsoft Windows Phone 7

Tegels in Windows Phone 7 (2010)

Door Arnoud Wokke

Redacteur Tweakers

28-04-2026 • 12:01

80

Submitter: JelleDJs

Reacties (80)

Sorteer op:

Weergave:

"Weg van de appiconen, dat wil iedereen al heel lang"

Ow ja? Dit hoor ik voor het eerst
Inderdaad, hoe deze interface gebruikt gaat worden is absoluut geen stap voorwaards. Je spreekt of je typt dus de opdracht. Stel je wilt foto's kijken van je vrienden in instagram, dan moet je dus typen: open instagram'. Ipv 1 of 2 kliks met de vinger.

Ik geloof er echt totaal niet in.
Misschien handig voor mensen met een handicap. Maar voor de alledaagse gebruiker zie ik het ook niet voor me. Uiteindelijk proberen kan nooit kwaad.

[Reactie gewijzigd door Dylan_R op 28 april 2026 12:11]

dit dus ik zou mezelf dit nog zien gebruiken


als gehandicapte met spasmes vind ik ttouchscreens echt 3 keer niks


tik je op X gaat je hand er net naast en doe je iets wat je niet wilde
in principe kan dat nu ook al wel natuurlijk, het hoeft m.i. ook niet óf te zijn, het kan prima én.
Zou handig zijn als mensen met een handicap iid gewoon spraak besturing kunnen gebruiken, iets als "het android, open Instagram"... Oh wacht. Echt voor accessibility heb je geen AI nodig.
Ik vermoed dat ze niet willen dat je zegt "open instagram", maar dat je meteen zegt wat je wil: toon eens een foto update van mijn vrienden deze week, je mag alle sociale media die ik heb gebruiken".

Of "stuur eens een whatsapp naar mijn collega om te zeggen dat ik een half uur later ben"


Ik snap het concept wel, en als het héél goed uitgewerkt is kan het voor een bepaalde niche wel interessant zijn (misschien vooral voor smartphones voor het werk?), maar de grote massa zie ik hier nog niet naar overstappen.
Eigenlijk wat Apple beloofde met Siri?

Ik zie er ook wel wat in, maar tegelijkertijd heb ik 10 jaar later nog steeds exact dezelfde frustraties met "voice control". Werkt okay-ish zolang je het in het Engels kan houden, maar in het Nederlands is alles waardeloos.
Of zelfs, midden in een gesprek met de telefoon nog in je zak: "...wacht, ik zal je laten zien wat ik bedoel!"

haalt telefoon uit zak en ontgrendelt deze

En dat de relevante content dan al klaar staat.
"ik wil m'n zeilboot even laten zien aan een collega"

"kan je even die mail van vorige week laatst aan die arts over die steunkousen laten zien"

Tsja, ik moet bekennen dat er wel wat inzit.. Je moet alleen je ziel eventjes verkopen aan big tech zodat het masterbrein met je mee mag kijken en denken binnen al je data over alle apps en accounts heen... Ik geloof niet dat ik daar anno 2026 nog vertrouwen in heb.
Terug naar MS-DOS. Geen user interface meer maar weer commands intypen. En inderdaad geen vrije keuze welke software ik wanneer draai. Ik wil de mogelijkheid houden zelf de code op mijn eigen apparaten in te zien dan wel in de hand te hebben. Doe ik dat nu actief? Nee, maar vind het fijn dat het kan.
Terug naar MS-DOS. Geen user interface meer maar weer commands intypen
Dat is wat een groot deel van de systeembeheerders al decennia doen, maar niet in DOS.
Terug naar MS-DOS.
Je bedoelt Unix dat 10 jaar eerder uitkwam (1971) en de command line tot gemeengoed maakte.
Mijn eerste aanraking met computers was een Philips P2000 homecomputer draaiend op CP/M, ook met commands.
Met zo'n mooi scherm met groene letters? En zo'n tapestation? Ja was ook mijn eerste ervaring. Je kon galgje spelen, en als ik met niet vergis kon je het ding ook nog laten praten via de command line. Pure magir destijds voor een gozertje van acht.
In een AI agent als interface kan je toch nog steeds snelkoppelingen hebben naar dingen die je veel gebruikt? Juist voor acties die je weinig doet is dit een uitkomst. Als ik een factuur binnenkrijg zie ik mezelf namelijk veel makkelijker tikken "plan in om dit over te maken zodra ik mijn salaris heb ontvangen" dan om eerst in mijn bankapp te kijken op welke datum mijn salaris ook alweer komt, om daarna terug te gaan naar de email om daar de pdf van de factuur te kunnen openen, om daarna terug te moeten naar de bank app en dan acht keer heen en weer te wisselen om alle gevens zoals bedrag, IBAN, betaalomschrijving etc over te nemen.
"toon foto's naakte vrouw" :+
ik denk dat je nog te veel in apps denkt. Wat maakt de bron uit? Vraag zou eerder moeten zijn 'toon me laatste updates van vrienden', ofzoiets.
De grote bedrijven willen dat heel graag, iedereen wil dat je op hun eilandje blijft.

X moe(s)t de "everything app" worden.

Google is tegenwoordig 90% gesponsorde reclame, en op pagina 4 vind je misschien eens echt wat je zoekt, wat geen toeval is.

De TikTok en Instagram Shop zijn er niet uit liefdadigheid.

Reddit moet je meer en meer moeite doen om iets buiten de app te openen.

Alles is tegenwoordig om engagement te drijven, je te kunnen tracken, en je wat te verkopen. Als je niet weg gaat, is er ook geen kans dat je wat anders gaat doen en (voor dat moment) niet terug komt. Zodoende wil openAI ook dat je enkelt maar met hún app/OS bezig bent. Hoe langer je met 'chat' spendeert, hoe meer tokens je verbruikt, is hoe meer je oplevert.
X moest een "WeChat" everything app worden. Maar dat gaat niet als je grof gaat snijden in je personeelsbestand, plus dat de integratie van de andere diensten ook niet echt van de grond kwam.
Dit is een algemene trend maar ik denk dat OpenAI nog een veel groter probleem heeft. Je ziet OpenAI nu overal probeert in te springen. Niet zonder reden want ze hebben ongekende groei verwachtingen verkocht om miljarden binnen te hengelen. Echter de omzet blijft gigantisch achter dus lijkt het erop dat ze op zoek zijn naar alternatieve stromen.

Ook heb ik steeds meer het idee dat CEO's zoals Altman maar zeker Musk wind verkopen. Allemaal mooie beloftes om hun miljarden, triljarden waarderingen goed te praten. Echter net zoals bij Musk, staat er eigenlijk niks tegenover. Wat bied OpenAI nu eigenlijk wat een ander niet kan? Wat bied OpenAI dat op termijn een ander niet kan, immers 10-20-50 miljard in dure GPU's is een enorme investering wat andere vandaag niet kunnen, maar dezelfde processorkracht kost volgend jaar de helft, de jaar erop nog slechts een kwart. OpenAI heeft geen moat wat men probeert te verkopen. Het heeft geen edge. Het heeft niks wat een ander niet kan.

Voor mij is dit eerder een van de zovele laatste dansen die OpenAI doet om zichzelf in de spotlight te zetten maar met grote bedrijven langzaam aan pas op de plaats maken als het op AI aankomt, vraag ik me ten sterkste af of die gigantische investeringen die OpenAI wilt gaan doen op zelfs korte termijn nog haalbaar zijn. Hoeveel bedrijven zijn nu nog happig om een nog iets klein beter modelletje weer te bekosten met tientallen miljarden?
"Chat, hoe laat is het? Ik zie de getallen staan, maar m'n hersenen zijn inmiddels zo afgestompt dat ik niet meer kan ontcijferen wat ze betekenen."

[Reactie gewijzigd door vickypollard op 28 april 2026 12:22]

Het schijnt dat AI diezelfde moeite heeft met analoog kloklezen.
Jongere generaties hebben dat probleem ook al met analoge klokken.
Het ligt aan je belang of je dit hoort of niet, de huidige manier van werken is voor de grote tech bedrijven heel onhandig, mensen kiezen namelijk hun eigen apps en openen en sluiten die wanneer ze willen.

Met de agent kan openai gewoon een dealtje maken met bijvoorbeeld meta dat de default client voor berichten altijd whatsapp zal zijn. Je ziet het toch niet meer en als de persoon naar wie je een bericht stuurt ook een zelfde toestel heeft merk je er niets van.

Oftewel lekker data farmen zonder dat die irritante eindgebruikers het kunnen beinvloeden.
Puur markteconomisch principe = creëer een onbestaande behoefte en verkoop die behoefte alsof je niet zonder zou kunnen.

Knap voorbeeldje weeral. Nu nog genoeg consumenten vinden die inderdaad 'al jaren genoeg hebben van al die apps'... :D
"Weg van de appiconen, dat wil iedereen al heel lang"

Ow ja? Dit hoor ik voor het eerst
en
De interface zou bestaan uit het werk van een AI-agent in plaats van rijen en kolommen vol iconen. Dat zou het omgaan met de smartphone ingrijpend veranderen.
proest...

Waarschijnlijk wordt het eerste opdracht na inlog:
"AI, laat alle apps zien" :P
dan worden de apps met icons alsnog getoond... :') :') :')


Hun nieuwe interface werkt inderdaad niet goed, want als het (apps met icons) toch niet getoond worden, sta je met blote tanden voor de telefoon, omdat je niet precies weet hoe je het probleem moet aanpakken. En bovendien... meeste mensen willen graag dat je mond dicht houdt als je met je telefoon bekijkt. Dat iedereen tegen telefoon praat (niet bellen) geeft een hoop herrie en ook problemen.

"Kop dicht, je praat te veel" zie iemand in een bus :P
Maar ik kan me wel voorstellen als iemand uit frustratie je telefoon afpakt en het ver naar buiten gooien...
iedereen applaudisseert in de bus ;) lol

[Reactie gewijzigd door Dark Angel 58 op 28 april 2026 14:49]

"Iedereen" = bedrijven die meer data willen graaien.

Ik ken mensen die een meer clean look willen, maar van iconen af is een totaal iets anders wat zelfs de mensen waar ik het over heb nier vanaf willen.

Kort door de bocht, die telefoon zal vooral een data graai machine zijn...
Trumpiaams verwachtingsmanagement.

Ik doe dit, want iedereen weet dat iedereen dit wil. Het zijn ook de beste ideeën, iedereen weet dat het de beste ideeën zijn.
Tot op zekere hoogte wil ik dat wel (er waren en zijn ook OS'en die dat al in meer of mindere mate deden/doen), maar niet met een AI-agent als vervanging.
Klinkt voor mij als de volgende gambit om investeerders maar gek genoeg te houden om geld in de bodemloze put te blijven gooien, want uiteindelijk komt er iets waar we heel erg veel aan gaan verdienen hoor!

Zelfs als het goed werkt... Het zal vast wel een doelgroep vinden maar ik zie het echt niet snel Android en iOS verdringen.
En als dit wel tractie krijgt implementeert Google het in Android op een betere manier, en is OpenAI weer nergens.
Ik zie het juist heel snel die besturingssystemen vervangen, en zelfs Windows, MacOS en (desktop) Linux. Een LLM is al prima in staat om "one shot" applicaties te schrijven die gelijkwaardig zijn aan (de meeste) apps op je telefoon en desktop. Waar kant en klare apps rekening moeten houden met grote groepen gebruikers, kan een LLM effectiever werken en iets maken met alleen dat wat je nodig hebt.

Voorbeeld: Je wilt een mailtje tikken. Nu moet je eerst op zoek naar een mailapplicatie, die dan opstarten, configureren, leren hoe het werkt, zoeken hoe je de tekst op kunt maken, etc. In een AI-OS vertel je het systeem gewoon dat je een mail wilt versturen aan die of die. Als er gegevens nodig zijn om in te loggen, vraagt het systeem dat aan je, slaat het op voor toekomstig gebruik, en schetst een UI met daarin alleen een groot vak om je tekst te typen. Zoek je een functie die nog niet bestaat, dan tik je gewoon "onderstreep deze zin" en behalve dat de LLM het onderstreept, plaatst het ook gelijk een knop op je scherm zodat je het de volgende keer direct zelf kunt doen. Stuur je in de toekomst weer een mail, dan weet het al je voorkeuren van de vorige sessie en kan het vanaf daar verder bouwen.

Kortom, dit kan vrijwel alle bestaande software vervangen. In gevallen waar je data met anderen moet delen (denk dus aan sturen van mails, multiplayergames, bedrijfsdata, etc) kan een AI-OS direct gebruik maken van APIs zoals het nu al doet. Dit gaat er uiteindelijk dus voor zorgen dat Facebook en Instagram niet meer bestaan (want de UX genereert vanzelf) behalve als ze hun APIs hier voor openstellen (en anders gaat de AI-OS vanzelf aan de haal met decentralized sociale media zoals Mastadon).

Overigens ben ik al een poosje tussen neus en lippen door met dit concept bezig. @arnoudwokke vind je het leuk als ik je hier binnenkort een (werkbare) demo van stuur?

Toevoeging; wel leuk weer hoe mensen dit als -1 en 0 beoordelen terwijl het énorm ontopic is. Sterker nog, dit is geen dagdromen, ik heb het namelijk al gemaakt vér voordat OpenAI met deze aankondiging kwam (en het waarschijnlijk verder uitgewerkt dan de twee andere voorbeelden van Deutsche Telekom en Meizu die hierboven zijn genoemd).

[Reactie gewijzigd door Skit3000 op 28 april 2026 13:01]

Kom nou, dat is gruwelijk duur. Zoiets gaat echt niet de standaard worden binnen nu en afzienbare tijd.
Waarom duur? Je telefoon ligt 20+ uur per dag stil. Een lokale LLM kan die tijd prima gebruiken om op eigen tempo allerlei dingen voor te bereiden waarvan het verwacht dat je gaat gebruiken, of de eerder gegenereerde code optimaliseren. Alleen wanneer je een verzoek doet voor een actie die je nog niet eerder uit hebt gevoerd is het handig om het via een externe LLM te laten genereren (omdat het sneller is).
Waarom duur? Je telefoon ligt 20+ uur per dag stil. Een lokale LLM kan die tijd prima gebruiken om op eigen tempo allerlei dingen voor te bereiden waarvan het verwacht dat je gaat gebruiken, of de eerder gegenereerde code optimaliseren.
En dan is je batterij leeg als je je telefoon wel nodig hebt, omdat hij op standby een LLM aan het draaien was. ;)
Wat oplossingsgericht weer zeg. Dan doet die dat alleen als je telefoon in de lader ligt, ook prima. Het gaat er om dat er al genoeg hardware beschikbaar is voor zulke zaken. Ja, het kost extra energie, maar apps ontwikkelen en onderhouden kost ook (iemand anders) moeite en energie.
Als je het op de cpu/gpu van de soc laat draaien wel ja. Maar ik denk dat energieverbruik best kan meevallen als er een soort llm inference unit wordt ingebakken in de soc wiens taak het is om hoog efficiente inference te doen. Als een telefoonfabrikant ook al weet welke llm ze precies willen draaien met welke precisie kun je de hele pipeline extreem specifiek inbakken. Denk dequantisation unit -> fp4/fp6/fp8 (kijken waar de industrie op land) matrix units etc. etc. eventueel met memory on soc waar het model context precies in past als dat gangbaarder wordt. Soort zinnigere vorm van de NPU die nu in laptop socs wordt gezet, die draait (als je hem ooit gebruikt) ook erg zuinig in de achtergrond
Aan de andere kant, waarom zouden wij dit willen?

Hele LLM draaien zodat de "AI" bepaalt dat als ik mijn telefoon unlock hij de Facebook app meteen opent, kan het ook zelf prima openen.

ik gebruik geen social media zoals Facebook en heb die app niet, is puur een voorbeeld

Daarnaast voor wie het wel wil, ook zonder AI kan een telefoon dingen prima automatiseren.

Doodzonde van de accu, dat ding gaat al (vrijwel) iedere dag aan de lader en ik wil niet terug naar de tijden zoals toen ik een Nexus 4 had die 2 a 3 keer (vooral als ik slecht bereik had) aan de lader moest.

dat ding haalde met goed bereik ongeveer 1.5 uur SoT op 1 lading op 3G, en als ik een hotspot moest draaien omdat op onze school het netwerk weer eens plat lag mocht dat ding 3 keer per dag aan de lader, op vrije dagen mer vooral wifi haalde hij een dag op 1 lading met super licht gebruik
Soort zinnigere vorm van de NPU die nu in laptop socs wordt gezet, die draait (als je hem ooit gebruikt) ook erg zuinig in de achtergrond
Daar moet je je ook niet al te veel bij voorstellen. Ik heb zo'n Copilot+ PC van mijn werk op test en als ik daar een LLM van MS Foundry installeer dan is het zelfs voor een 3b versie al heel erg traag. Vergeleken met mijn lokale AI server met goede GPU.

En dat is nog een laptop chip, geen mobiel. We staan natuurlijk maar aan het begin hiervan maar er moet nog veel gebeuren.

[Reactie gewijzigd door Llopigat op 28 april 2026 13:36]

Waarom duur? Je telefoon ligt 20+ uur per dag stil.
Ja, in slaapstand. Als hij die tijd gaat gebruiken om een LLM te draaien dan mag hij wel 4x zo dik worden om genoeg accu te hebben.

Ik denk ook niet dat het hiertoe komt want in de praktijk hebben mensen toch vaak dezelfde wensen. Een mailtje schrijven werkt alleen omdat iedereen mail gebruikt. En services reduceren tot API's zie ik hem ook niet worden omdat zij zoveel verdienen aan hun marketing. Je ziet nu juist dat apps geen gebruik maken van de standaard UI toolkits op bijvoorbeeld android en ios omdat ze er hun eigen marketing stempeltjes op willen drukken.
AI gebruikt volgens mij veel te veel energie om zo algemeen te gaan worden. Zelfs in het huidige gebruik werkt het alleen doordat er continu meer geld van investeerders naartoe gaat. Als werkelijk elke handeling die iedereen op een smartphone of computer uitvoert eerst door een LLM gehaald moet worden, dan levert dat een energieverbruik op dat financieel onhaalbaar is en desastreus zou zijn voor onze planeet.
Ja ik heb laatst een keer een testje gedaan voor de lol.

Ik had een lijstje van folders en groottes (tienduizenden!), en die wilde ik in een nette markdown tabel hebben. In de praktijk betekent dat alleen wat spaties door pipes vervangen. Met search/replace irritant maar het is niet moeilijk qua opgave.

Dit kon ik doen door de LLM te vragen een python programmaatje te maken die dat doet. Dat duurde 20 seconden (lokale LLM) en vervolgens duurt het milliseconden elke keer als ik dat nodig heb.

Ik kan ook alle data door de LLM halen en vragen of hij het voor me wil doen. Dat duurde 25 minuten (lokale LLM dus!) waarbij de server 300 watt stond te pompen die hele tijd. Het gebeurde dit keer wel correct, geen hallucinatieproblemen (met ingewikkelde cases ook een probleem maar dit keer niet) maar het heeft enorm veel tijd gekost en energie verstampt.

Ik zie echt nog geen einde aan het deterministische programmeren. Wel met behulp van AI, maar dat we alle handelingen zelf door een AI laten uitvoeren lijkt me absoluut onzinnig.
Mijn partner gebruikt weleens lokale AI, en dan zie je de GPU (vaak) gewoon naar de max spiken (5070 Ti).

Meeste van de games die wij spelen doen dat niet eens...

Maar goed, recent discussie met iemand gehad die dacht dat het allemaal wel meevalt als "zijn telefoon het ook kan", nadat ik had uitgelegd dat zoiets als Gemini of ChatGPT niet hetzelfde is als lokale AI was het antwoord "vebruik zal wel meevallen, want die antwoorden zijn simpele tekst".

Zorgelijk, ik dacht juist dat meeste mensen wel door hadden hoeveel stroom het verbruikt (misschien niet exact, maar wel veel).

Maar dan hoor je mensen die denken dat AI minder verbruikt dan gaming want "tekst" of nog erger, mensen die denken dat het "lokaal" op hun toestel draait.

En als ik dan zie dat bepaalde mensen inmiddels zo lui zijn geworden dat ze zelfs iedere keer AI om dingen vragen zoals "hoe lang ei koken tot deze hard is"... nogmaals zorgelijk, op meer fronten dan stroomverbruik alleen.

[Reactie gewijzigd door Mizgala28 op 28 april 2026 13:33]

Ok prima: https://github.com/sjoerdvanderhoorn/it-beta

Ik weet niet in welke staat het is. Je hebt een Gemini API-key nodig (omdat gemini-2.5-flash-lite een van de snellere modellen is). Zie de readme voor hoe je het project start.

Alles draait verder volledig in de browser. Er zitten wat extra debugging tools bij en een manier om de UI in sync te houden met andere apparaten (wat je invoert op je telefoon, wordt ook zichtbaar op je tablet en computer zodat je overal dezelfde info tot je beschikking hebt en alleen een ander apparaat pakt omdat dat op dat moment handiger werkt).

In de map prototype staan een paar (nog oudere) prototypen van dit systeem.

En nee, het werkt nog niet vlekkeloos. De verschillende "interaction panels" moeten beter data met elkaar delen zodat een nieuwe "interactie" voort kan bouwen op dingen die je eerder op hebt gezocht. Het zou dan mogelijk moeten worden om bijvoorbeeld eerst een ontvangen appje van iemand te lezen, op te zoeken wat de openingstijden van een restaurant zijn, daarna in je agenda te kijken, om daarna alleen als opdracht te geven "we kunnen zaterdag wel om 20:00 uit eten", waarna er zowel een restaurantreservering gemaakt (zou kunnen) worden plus een paneel opent waarin je kunt antwoorden op het appje zonder dat je dat zelf allemaal terug moet zoeken, etc.
Ik zie het juist heel snel die besturingssystemen vervangen, en zelfs Windows, MacOS en (desktop) Linux.
Hoe snel, denk je? 2 jaar? 5 jaar?

Lijkt me heel interessant om over 10 jaar deze comment nog eens terug te lezen :D
Ik denk dat je het niet volledig begrijpt. Verdienen aan hardware is niet hun bedoeling. Ze willen de net hardware aan kostprijs verkopen om dan marktaandeel te winnen wat context vergaren betreft. Want die winnaar wint het Agent-stukje.

Sowieso is hun grootste concurrent hier Apple. Die hebben het dichtste ecosysteem van TV-player, watch, smartphone, Laptop, air pods etc. Als er iemand een succesvolle Agent kan lanceren met maximale context dan is het Apple.

Ook gaat voice belangrijker worden. Lees Siri. Ze staan nu ver achter maar er is nog altijd niemand die een complete OS integratie heeft gedaan. Microsoft was er vroeg bij maar de co-pilot agents waren nog niet volwassen.

Wat open AI wil is sensoren bij de mensen brengen en verdienen aan het ecosysteem.

Voorspelling: Ik denk dat het gaat falen want Apple gaat heer en meester worden. Microsoft wil ook nog altijd winnen op smartphones en desktops. En de kan bestaat dan Anthropic heel het B2B segment inpalmt omdat ze die markt nu al gewonnen hebben.

Ik heb bijvoorbeeld een headless Linux server draaien. Ik stuur enkel een Agent aan via promts. En dat lukt goed. Die beheert mijn docker services, beveiligd de boel, maakt backups, laat me weten als er iets mis is etc. Er draaien 10 services op. N8N, Home assistant, MQQT etc.
We zitten op een tech forum.
Dacht ik ook meteen, laatste stuiptrekkingen van een stervend bedrijf... totaal geen innovatie meer. Een telefoon waar je dingen weghaalt en er dan een chatgpt opzet. Een slimme speaker die al tig keer is geprobeerd en gewoon niet heel handig in praktisch gebruik. Ze hadden hun moment met chatgpt oorspronkelijk, zijn toen links en rechts ingehaald, en het enige van echte waarde is nu grotendeels open source, gratis beschikbaar en beter.
Hoe gaat dat dan?

Gebruiker: "Open het www.tweakers.net forum."

OpenAI-smartphone: "Oké, Tweakers is een geweldige website voor tech-experts die werd opgestart door Femme Taken en binnen een landschap van snel wijzigende ontwikkelingen een volledige weergave neerzet rond het nieuws over AI, reviews en het heeft een forum met gebruikers – men kan er onder artikelen posten en de gelegenheid nemen om zich te uiten over het nieuws in algehele zin door een bericht met of zonder inzicht te plaatsen – berichten die ... compacting ...

Oké, ik open tweakers.org


Is een beetje overdreven, maar ik zie niet waarom (voor mensen zonder aandoeningen die dit minder makkelijk maken) een icoon en een keer "t" intypen minder goed zou werken :P
ik hoop meer dat als je in je agenda een nieuwe afspraak intikt dat ie dan aan de bedrijfsnaam die je daar intikt al kan weten wat het adres is, of dat ie weet dat je met Lisa altijd afspreekt bij dat cafétje om de hoek en dat die afspraak altijd uitloopt en dus een uurtje daarna ook maar reserveert. Of dat je altijd vraagt om de verkeershinder voor je route naar je werk, dat ie daar maar begint als je de telefoon ontgrendelt...
Ze kunnen autocoureur* autocorrect niet eens goed krijgen, dus ik heb er een hard hoofd in :P
* Dit is serieus een voorstel dat bij mij eens werd gedaan tijdens het typen van autocorrect.
Hoe gaat dat dan?

Gebruiker: "Open het www.tweakers.net forum."

OpenAI-smartphone: "Oké, Tweakers is een geweldige website voor tech-experts die werd opgestart door Femme Taken en binnen een landschap van snel wijzigende ontwikkelingen een volledige weergave neerzet rond het nieuws over AI, reviews en het heeft een forum met gebruikers – men kan er onder artikelen posten en de gelegenheid nemen om zich te uiten over het nieuws in algehele zin door een bericht met of zonder inzicht te plaatsen – berichten die ... compacting ...

Oké, ik open tweakers.org


Is een beetje overdreven, maar ik zie niet waarom (voor mensen zonder aandoeningen die dit minder makkelijk maken) een icoon en een keer "t" intypen minder goed zou werken :P
Jij gaat ervan uit dat ze verwachten dat iedereen dit intypt... Ik denk dat dit grotendeels stem-gestuurd zou moeten worden (of ze verwachten dat iedereen het stem-gestuurd doet...) Denk dat dat veel geroezemoes geeft bij een gemiddelde meeting ergens waar het gros er helemaal niets aan vind en op de telefoon zit te bladeren :P
Nee hoor, mijn voorbeeld was stemgestuurd. Nouja, het voorbeeld dus. Niet de tekst die ik hierboven heb getypt :+

Maar daar heb je inderdaad een goed punt: de huidige spreekvariant van ChatGPT geeft nog steeds problemen met verschillende stemmen.
En ondertussen heeft iedereen op dit moment al het geluid uit staan, tot de toetsen aan toe, want als je iets hoort uit je telefoon is dat gruwelijk irritant en not-done. Zelfs voice-bellen is "frowned upon". Ik zou nooit tegen m'n telefoon praten en hem nooit iets tegen mij laten zeggen. Dus ik zie lastig hoe dit gaat werken. Blijkt dat die icoontjes na decenia van operating system ontwerp gewoon de meest effectieve methode zijn :)
Op naar de volgende flop. Het lijkt me sterk dat iemand hier op zit te wachten. Persoonlijk vind ik de "deels in de cloud" oplossing al een no-go, maar ik zie het niet zitten om tegen mijn telefoon te moeten praten of typen in plaats van icoontjes aan te kunnen klikken. Een goede assistent zullen veel mensen graag gebruiken, maar de weg die OpenAI in slaat zit bomvol met risico's. Een telefoon moet echt lekker, vlot en consequent werken. Het gebeurd nog te vaak dat een AI iets niet goed begrijpt, vast blijft houden aan fouten die al gemaakt zijn of simpelweg iets anders fout doet. Dat is ansich niet zo erg, zo lang je er maar omheen kunt werken. In een chatvenster of CLI is dat makkelijk. Maar dat wordt lastig als je er niet omheen kunt met je telefoon. Los daarvan zul je veel integraties moeten maken met allerlei apps, anders gaat die AI niet heel veel meer doen dan apps openen en/of touch events emuleren. Leuk dat zoiets goed zal werken met een agenda app of een wekker. Maar de meeste mensen doen veel meer met hun telefoon. Succes daarmee.

Toevoeging: ook altijd zo'n "book a flight" voorbeeld. Heeft er iemand dat ooit door een AI laten doen? Werkt dat echt overal, of is dat vooral een gimmick waar niemand wat mee kan?

[Reactie gewijzigd door Zenomyscus op 28 april 2026 12:22]

Dat gaat niet goedkoop worden voor de consument. Het wordt nu al steeds duurder om een prompt te draaien en dat gaat alleen nog maar duurder worden. Als je moet gaan betalen voor basisfuncties in je telefoon (omdat je alles met prompts moet doen) dan gaat dat nooit aanslaan.
Het ergste van dit idee is dat, in de wereld van vandaag, ik het nog zie gebeuren ook.
Want.... we zijn niet in staat om zelf onze smartphone zelf te besturen??

Ik zal wel een ouwe lul zijn, maar ondanks dat ik via Hass en m'n mobiel vanalles kan schakelen in huis loop ik toch gewoon naar die mechanische schakelaar. Ik vind het wel goed zo
Leuk... en dan alle data direct richting OpenAI, want daar gaat het op neer komen. Maar die doen daar natuurlijk niets mee.
Eerst die hallucinaties maar eens wegwerken...
Dit is niets anders dan de volgende luchtballon van Scam Altman om geld los te wrikken uit de zakken van institutionele investeerders.

Al deze ideeen maar OpenAI heeft nog geen dag winst gedraaid en brand geld nog sneller dan mijn ex-vriendin. ik zit er in ieder geval niet op te wachten dat AI de regie over mijn telefoon overneemt.
Interface Windows Phone blijft in mijn ogen nog steeds een van de beste van de laatste decennia in UI. Het had zoveel potentie, maar helaas... door andere redenen geen succes geworden.
Die tegeltjes? Horror, net als de versie van Windows waar MS dat ook wilde doordrukken.
Niet genoeg apps, omdat developers liever voor iPhone of Android apps ontwikkelden.
kan me niet voorstellen dat er veel mensen zijn die een telefoon van dit bedrijf willen

Om te kunnen reageren moet je ingelogd zijn