'OpenAI's eerste hardware wordt toch een slimme speaker'

Het eerste hardwareproduct van OpenAI wordt een slimme speaker. Dat schrijft The Information op basis van bronnen. Eerdere geruchten gaven juist aan dat het een pen zou worden, maar daar rept The Information niet over. OpenAI zou ook aan een slimme bril en slimme lamp werken.

De slimme speaker wordt het eerste fysieke product dat OpenAI uitbrengt en gaat waarschijnlijk zo'n 200 tot 300 dollar kosten, schrijft 9To5Mac op basis van The Information. De slimme speaker zou een camera krijgen en kan daarmee de omgeving zien, inclusief voorwerpen en mensen die in de buurt staan. Het product zou ook gezichtsherkenning gebruiken, 'vergelijkbaar met Apple Face ID', om zo aankopen te kunnen doen.

Op dit moment zouden zo'n tweehonderd mensen binnen OpenAI aan hardware werken. Naast de slimme speaker zou OpenAI ook aan een slimme bril en slimme lamp werken. Hier zijn geen verdere details over bekend. Volgens eerdere geruchten zou OpenAI aan een pen en aan een draagbaar audioapparaat werken. Het is niet duidelijk wat er met de pen is gebeurd en of dat draagbare audioapparaat de slimme speaker is. OpenAI zei eerder te verwachten dat het eerste hardwareproduct niet voor februari 2027 geleverd wordt.

In het artikel van The Information wordt ook gesproken over de relatie tussen Jony Ive en OpenAI. Het AI-bedrijf maakte vorig jaar bekend io over te nemen, het bedrijf dat door Ive is opgericht. Ive zou daarna helpen met het ontwerpen van de hardware- en softwareproducten van OpenAI, die door de teams van OpenAI worden gemaakt.

Die relatie wordt door bronnen van The Information als 'ingewikkeld' beschreven. Ive zou langzaam met aangepaste ontwerpen komen en zou weinig delen over zijn proces om nieuwe ideeën te bedenken, wat tot 'spanning' zou leiden met de OpenAI-teams.

OpenAI ChatGPT Bron: NurPhoto/Getty Images
Bron: NurPhoto/Getty Images

Door Hayte Hugo

Redacteur

20-02-2026 • 20:52

126

Reacties (126)

Sorteer op:

Weergave:

En welk probleem lost een slimme speaker of slimme lamp op?
Ik ben tegenwoordig gewend aan de informatiestroom van chatgpt. Ik wil in bed kunnen liggen en de vraag kunnen stellen hoe iets zit als het in mijn hoofd op komt. Dat kan mijn google nest mini niet. Daarnaast zou een echte slimme speaker automatisch automations moeten kunnen maken etc. Voor mij een insta buy
En je gelooft dan ook klakkeloos wat de clanker halucineert?

Waarom zijn we toch geëvolueerd naar mensen die alles NU NU NU moeten hebben. Schrijf je gedachten op, ga slapen, en zoek het morgen op.
Opschrijven? Ik verwacht dat AI bijhoudt wat ik nog moet doen of wil weten. Pen en papier dat is echt prehistorisch 😉
Mijn eenvoudige gedachte: Je verwachtingen liggen veel te hoog.

Ik baseer dit niet op gevoel maar op talloze uren aan LMM gebruik omdat het mij ook een handige tool leek. Onderwerpen waar ik wel iets van weet en het fijne van vraag is of A niet neer relevant omdat de trainingsdata van de LMM verouderd is, B gewoon onjuist en soms zelfs gevaarlijk is en C als je er op doorvraagt en je zegt overtuigd te zijn dat de meeste bomen paars en niet groen zijn de LMM daar gewoon in mee gaat.

Advies op gebied van autotechniek bijv. de procedure voor het vervangen van een wiellager / aanhaalmoment waarbij de verkeerde info als waarheid werd bestempeld, maar ook YAML of scripting in HA wat gewoon structureel niet werkt en het installeren van Omada controller software. Alles gaat fout.

Zaken die feitelijk als relevante tutorial / how to terug te vinden zijn worden genegeerd en hallucinaties hebben nog steeds de overhand.

Voorgaande berichten en prompts worden niet meegenomen in diezelfde chat en zelfs het werkgeheugen laat mij constant in de steek. Ja ook betalend gebruiker geweest.

Zelf ben ik langer bezig, met alle frustraties van dien, om de antwoorden OK te krijgen en de info te zien die ik wil zien dan dat ik het zelf google.


Een LMM is ingesteld om een meelopend liegend vriendje te zijn die jou pleased. ikzelf heb daar geen behoefte aan.

[Reactie gewijzigd door sanscorp op 21 februari 2026 09:36]

Ja een LLM is sowieso een voorspeller, hij voorspeld het meest logische dat volgt. Jouw frustratie loop ik ook wel eens tegen aan, je moet ook zaken ook niet te gecompliceeed maken. Wel wordt het iedere maand merkbaar beter, voor coding gebruik ik Cursor veel en die doet zijn werk toch wel behoorlijk goed.


En het naar je mond praten vind ik ook irritant maar wordt wel minder. Maar laatst had ik een gesprek over eerlijke handel met China. Daar krijg ik dan toch wel wat waardevolle informatie over. Welke initiatieven de EU neemt om de stroom.aan pakketten te verwerken, ik haal wat ik er van wil weten er wel uit.
laatst had ik een gesprek
En daar zit de crux, je hebt geen gesprek. De LLM voorspelt wat het volgende woord met de input data moet zijn (plus een berg randomness en manipulatie om de boel zinnig te houden). Dat dit voelt als een gesprek is prima, maar je moet niet verwachten dat een LLM ineens een ingeving krijgt of een discussie kan vormen. At best ben je met jezelf aan het discussieren.
"LLM voorspelt wat het volgende woord"

En daar zit ook een crux.... Want een LLM voorspelt helemaal niets. Evenals 'een gesprek', is voorspellen een anthropomorfisme/metafoor. Feitelijk moet je zeggen: Een LLM berekent een kansverdeling over mogelijke volgende tokens. Het model “denkt” niet vooruit zoals een mens, maar voert een probabilistische berekening uit op basis van gewichten.

En 'gewicht' moet je ook niet letterlijk nemen. Het woord “gewicht” is óók een metafoor. Er zit nergens een fysiek gewicht in zo’n model. Wat het werkelijk is: Een numerieke parameter, een vermenigvuldigingsfactor, of een coëfficiënt in een lineaire transformatie. We noemen het een “gewicht” omdat het invloed uitoefent op de uitkomst.

Voorspellen” is metaforisch.
Gewicht” is metaforisch.
Gesprek” is metaforisch.

Als jij op de ene slak zout wil leggen... doe dat dan ook op de andere slak. Maar weet wel dat een discussie op Tweakers op deze manier erg vermoeiend wordt....
Denk je dat die ziekenhuizen de MRI scans loslaten op een LLM dat een 'meelopend liegend vriendje is die jou pleased'? Of denk je dat ze zelf LLM's hebben getraind en daar bijzonder bruikbare resultaten mee kunnen krijgen?

Als je verwacht dat ChatGPT op een goede manier anomalieen kan ontdekken in MRI scans, dan ben je niet helemaal op de hoogte van de ontwikkelingen die gaande zijn. Lees even het artikel dat ik hierboven heb genoemd.

Het lijkt erop dat je AI en LLM’s verwart met de specifieke implementatie op chatgpt.com en daardoor te veel focust op de beperkingen van algemene, consumentgerichte LLM-versies...

Wat zouden de resultaten zijn wanneer OpenAI of Gemini een specifieke LLM ontwikkelt die volledig gericht is op één programmeertaal? Momenteel kun je ChatGPT om hulp vragen bij C++, Rust, Go, enzovoort, waarbij de ene taal beter wordt ondersteund dan de andere. Hoe goed zou een LLM zijn als die voor 100% wordt getraind op bijvoorbeeld Rust, en wat voor resultaten zou dat opleveren?

Waarom zou TP-Link geen LLM trainen die volledig is toegespitst op hun netwerk­infrastructuur, en die inzetten als interactieve chat in plaats van traditionele FAQ’s en handleidingen? Het ligt voor de hand dat dit soort ontwikkelingen eraan komen, zodat je straks concrete problemen met je Omada Controller-software kunt bespreken en direct prima antwoorden krijgt.
Het gaat om de data hebben, niet het trainen. In zekere zin is chatgpt al getrained op al die specifieke talen, want alle beschikbare code is er al in gegaan. Text en code is heel klein dat vergeten mensen wel eens. Geheel wikipedia is 24 GB, dus als je een model gebruikt van zo'n grootte wat je gewoon lokaal kan draaien dan past daar makkelijk de gehele engelse kennis in. Die online modellen zijn velen malen groter.
Als je brein 24GB zou kunnen opslaan en doorzoeken, dan ben je met een USB stick expert op elk gebied van menselijke kennis.

[Reactie gewijzigd door Zoijar op 21 februari 2026 12:15]

Ik denk dat je het belang en voordelen van specialistische LLM’s (domein-specifieke modellen) onderschat. ChatGPT is als algemeen en breed toepasbaar model zeker getraind op al die talen. En kan daar - naar mijn bescheiden mening - redelijk goed mee overweg.

De kans dat een algemeen model bijv. JS en de specifieke implementatie van Typescript soms door elkaar haalt.. is levensgroot. En de kans wordt alleen maar groter wanneer die ook getraind is in 100 andere talen.

Volgens mij is het trainen van die modellen uiterst belangrijk, tijdrovend en kostbaar.

Achtergrond:
https://aibusiness.com/generative-ai/domain-specific-ai-models-poised-to-dominate-enterprise-gartner

The smaller, more focused models offer significant advantages over their generic counterparts. They can be retrained on specific data, making them less prone to hallucinations and more accurate within their specialized domains, a critical factor for regulated industries where precision is paramount.
Daar sla je precies de spijker op zijn kop. De hype is toch echt rondom de LMM op internet welke publiekelijk toegankelijk is en daar is mijn commentaar ook op gebaseerd.

Als je daar denkt een volwaardig, relevant en precies gesprek mee hebt en de info aanneemt zoals het gepresenteerd wordt dan is dat een hele gevaarlijke.

Ik heb het niet over zeer specialistische modellen en echt AI wil ik het ook nog niet noemen want daar heb ik persoonlijk een ander beeld bij.

Nogmaals, ik probeer het heel erg veel toe te passen en ben er misschien ook wel verknocht aan maar telkens word ik teleurgesteld. Dat is niet 1x maar al 1000x. Misschien is mijn prompt niet duidelijk genoeg, wie zal het zeggen, misschien ben ik hardleers of misschien zelfs wel te optimistisch.

[Reactie gewijzigd door sanscorp op 21 februari 2026 12:53]

Je zegt: "Als je daar denkt een volwaardig, relevant en precies gesprek mee hebt en de info aanneemt zoals het gepresenteerd wordt dan is dat een hele gevaarlijke."

Ik ben - zoals zovele mensen - uiterst nieuwsgierig. Vroeger googlede ik vele malen per dag, allerlei onderwerpen: hoe hoog is de ijfeltoren/wie is de trainer van Feyenoord. Wanneer was NL voor het laatst wereldkampioen. En op internet zijn 1000 foute/achterhaalde antwoorden te vinden op al die vragen. Maar daarmee is 'internet' toch nog wel een relevant hulpmiddel om antwoorden/kennis te vinden?

Als je denkt dat ChatGPT en/of 'internet' in het algemeen foutloos is... dan ben je sowieso gevaarlijk bezig. En helaas is het niet te voorkomen dat mensen er mee aan de haal gaan. Er zullen altijd mensen zijn die klakkeloos overnemen wat ze ergens lezen op een 4chan of reddit forum. Of wat chatgpt uitspuugt...

En - om het even paradoxaal te zeggen - als je zo dom bent om chatgpt klakkeloos te vertrouwen... dan kun je wellicht ook beter klakkeloos op chatgpt vertrouwen....
… als je zo dom bent om chatgpt klakkeloos te vertrouwen... dan kun je wellicht ook beter klakkeloos op chatgpt vertrouwen....
Geweldige quote, mag ik die lenen van je? (y)

P.S. Je hebt het er maar druk mee om alle misvattingen hier aan te kaarten, hulde! _/-\o_
Dank
Ik zit al vele jaren op tweakers. Nooit gereageerd. Tot ongeveer een half jaar geleden. Ik begon me steeds meer te ergeren aan de reacties. Terwijl ik vroeger de reacties aandachtiger las dan de artikelen zelf.

Ik hoop dat anderen ook iets kritischer gaan reageren op de nonsense reacties van sommigen!
Zelfde ervaring hier. Ik wilde afgelopen week een programma maken om twee pdf bestanden "in elkaar" te schuiven, dus de ene als achtergrond en de andere met tekst er overheen.

We hebben hier een toolkit voor gekocht, compleet met documentatie en die heb ik geüploaded naar Perplexity, ChatGPT, Claude en Copilot met de opdracht een programma voor mij te maken die dat doet. Nou werk ik in een niche taal (Progress 4gl) maar long story short: geen enkele van de vier kreeg het voor elkaar. ChatGPT en Claude kwamen in de buurt, Perplexity had de namen van de api calls verkeerd en waar Copilot mee bezig was weet ik nu nog niet.

Blind vertrouwen op een LLM lijkt me dan ook "beperkt handig"....
'of scripting in HA wat gewoon structureel niet werkt'

ja, dit klopt, maar ook niet.
Ik heb heel HA werkend gekregen met 'hulp' van AI.
Kost veel moeite, je moet er met de zweep overheen of zelfs Gemini tegen chatgpt laten uitspelen voor betere resultaten, maar uiteindelijk werkt het gewoon goed.

Maar idd, als je verwacht dat het gelijk werkt kom je van een koude kermis thuis, daar geef ik je gelijk

[Reactie gewijzigd door bilbob op 21 februari 2026 23:34]

Laatste tijd gebruik gemaakt van Chatgpt? Al die zaken die jij noemt gaan tegenwoordig vele malen sneller door Chatgpt. Recent mijn remblokken vervangen, batocera ingesteld etc. Alles via Chatgpt en alles vele malen sneller dan toturials en informatie zelf op zoeken. Dta koste mij vroeger zoveel meer tijd. Ik merk ook gewoon dat het steeds beter wordt, alles wat Chatgpt mij teruggeeft.
Gisteren nog, WiFi :)

Deze week meermaals met zeer uiteenlopende zaken.
Ik reageerde denk ik vooral op je wiellagers.
Ik vind de informatie die ik tegenwoordig terugkrijg eigenlijk best waardevol.

Zo heb ik recent nog de carterslangen gereinigd, omdat mijn chatmaat aangaf dat die wel eens schoongemaakt moeten worden als er wat olie bij de luchtfilter te zien is. Ook kreeg ik de tip dat ik de remzuigers moet laten meedraaien wanneer ik ze naar binnen duw.

Dat soort informatie kan ik natuurlijk ook online vinden, maar dan ben ik eindeloos aan het zoeken. Ik vind het echt een geweldige tool. :henk
Alleen achter vanwege het handrem mechanisme ;)

Maar let heel erg op met dit soort adviezen want goed advies op dit soort hoog specialistische onderwerpen zijn al dun gezaaid in de mensenwereld, laat staan via chatgpt. Ik heb heel wat onzin gelezen m.b.t. motorvoertuigentechniek en ik ben nog maar een enthousiast hobbyist.

Als je graag sleutelt raad ik toch echt een forum aan. Dat kan algemeen maar meestal ook wel merk specifiek.
Ik ben het wel met je eens. Toch heb ik nu al meerdere problemen opgelost zonder op forums te zoeken. Uiteraard pak ik alles rustig aan. AI zoekt daar net zo goed natuurlijk.
Pen en papier helpen ook bij het onthouden van informatie, meer dan typen, lezen, of auditief verwerken. Al schrijf je het op en gooi je het direct weg, dat heeft zin. Verder is een vraag hebben, je erover verwonderen, gaan slapen, en je eigen geest toestaan je vragen, wensen en/of verwondering verder te muteren of destilleren (ook als je niet slaapt) ook een belangrijk deel van het proces. Als je dat eruit haalt door direct je slimme speaker aan te roepen voor antwoorden, reduceer je je menselijke ervaring en uiteindelijke output enorm.
Ik kan je reactie waarderen, ik ben vaak geneigd alles te willen weten, snel en efficient. Maar je reactie is een goede reality check. Bedankt hiervoor👌🏻
Er is nochtans bewezen dat dingen opschrijven echt vele malen efficiënter is bij het onthouden en verwerken.
Een apparaat met camera in je slaapkamer...kan niet fout gaan :)
De camera heb ik dan weer geen behoefte aan haha, sowieso niet in binnenshuis.
Zeg dat ook meteen aan 95% van de Nederlanders die hun smartphone in de slaapkamer heeft als je het toch allemaal zo verschrikkelijk vindt.
Dit kan toch ook met je telefoon ipv dat je een extra afluister apparaat nodig hebt?


Open ai mag proberen wat ze willen maar in mijn huis komt het niet.
Mijn gevoel zegt nog steeds dat open ai de ai race gaat verliezen en dat probeert op te lossen met extra zijtakken. Die zijtakken liggen waarschijnlijk straks op de schroothoop want als ze de race verliezen is het ewaste.
Maar uiteraard is dit mijn mening en voorgevoel.
Nou ik zou er zelf niet steeds mijn telefoon voor willen pakken eigenlijk. In de slaapkamer neem ik sowieso mijn telefoon nooit mee. Ik ben een groot afnemer van google nest mini alleen zijn die nu nog niet zo slim. Ik zou vooral een upgrade willen daarvan. Zelf lig ik niet wakker van iets extra's dat meeluisterd.
Geen van allen is daartoe fatsoenlijk in staat. Het is verontrustend dat je je informatiestroom juist daar uit haalt, die informatie is zeer onbetrouwbaar. Zelfs bij de meest basale opdrachten faalt AI gewoon keihard. Het is een hype en misschien wel een nieuwe verslaving voor sommige.

[Reactie gewijzigd door sanscorp op 21 februari 2026 09:21]

Heel internet is onbetrouwbaar... Maar ik neem aan dat jij toch wel eens googled?
Je moet niet de eerste de beste website openen en het antwoord voor 'waar' aannemen.
Maar buiten dat is 'internet' toch best bruikbaar om informatie te vergaren. Toch?

Dat AI 'zeer onbetrouwbaar' is... is natuurlijk onzin.

Je klinkt als een conservatieve huisarts die 20 jaar geleden bang was voor 'dr Google' (link)
Gelukkig is de medische wereld verder geëvolueerd en volop met AI aan het testen. En het zou zomaar kunnen dat binnenkort AI beter in staat is dan artsen om anomalieën te herkennen in MRI-scans en CT-scans:
https://www.icthealth.nl/nieuws/ai-analyseert-hersen-mris-razendsnel-en-met-hoge-nauwkeurigheid

Maar... blijf vooral klagen over AI hoor: "De bubbel gaat barsten, het vreet energie, het is onbetroubaar, het is gebakken lucht. AI is geen AI maar een LLM". etc.etc.etc. ZUCHT GAAP GEEUW. Zou het mogelijk zijn om die paar zinnen ergens 'sticky' bovenaan als eerste reactie te plaatsen, dat scheelt 50% onzin reacties!
Nee hoor, specialistische AI kan zeker nuttig zijn. Maar dat is die LMM die je aantreft op internet, genaamd ChatGPT of Grok of welke dan ook gewoon niet.

Dus ja, ik blij bij mijn standpunt wat dat betreft. Het lukt diezelfde LMM niet eens om 5 bronnen te zoeken en een gemiddelde antwoord samen te vatten.

Die bubbel die nu ontstaan is gaat zeker barsten. Is AI daar mee ten dode opgeschreven? Nee zeker niet, AI is er nu en blijft ook en kan zeker nuttig zijn.
Ik blijf me verbazen dat intelligente mensen in staat zijn om te zeggen dat ChatGPT (etc.) niet nuttig kan zijn. Ben je aan het trollen?

Simpel voorbeeldje: soms schrijf ik een reactie op Tweakers en laat ChatGPT even controleren of er taalfouten in zitten. Dat doet ChatGPT toch vrij aardig. Is dat niet een beetje nuttige functie?
Dat klopt, dat is ook echt wel het enige wat aardig gaat. Ik vraag hem soms zinnen te herformuleren. Dat gaat OK.

Maar trollen? Nee, diezelfde gedachte kwam ook bij mij voorbij. Hoe kan een intelligent persoon nu zo leunen op chatgpt. Maar ook schrijven dat ik zeg dat AI niet nuttig kan zijn terwijl er letterlijk in mijn vorige bericht staat: "AI is er nu en blijft ook en kan zeker nuttig zijn."

[Reactie gewijzigd door sanscorp op 21 februari 2026 14:52]

Je schrijft letterlijk "Zelfs bij de meest basale opdrachten faalt AI gewoon keihard."

Daar ben je blijkbaar van teruggekomen...
Het is redelijk generiek, maar ook zojuist weer getracht een wifi kanaal plan te maken en elk antwoord varieert en er is geen touw aan vast te knopen. Dan weer wel DFS, dan weer niet, dan weer stel kanaal 149 in. Dan ineens nah zet alles maar op 36 maar dan wel 80Mhz hoor want 160Mhz kan dan niet. Wtf?

Ja mijn bestaande zin herformuleren gaat ok maar 9 van de 10 keer neem ik die ook niet 1 op 1 over.
Ik ben toch wel benieuwd welke ai je gebruikt en welke prompts. Een wifi plan lukt jou niet terwijl het mij inmiddels lukt om een repo op github waar niets over bekend is in te lezen met een llm en vervolgens werkende en kloppende code uit te spugen.
Ik leg de situatie voor, zeg wat het einddoel is en vraag dan hoe dit het beste te realiseren a.d.h.v. best real world practices volgens minimaal 10 unieke bronnen die dezelfde methode voorschrijven.

Daarbij gaf ik een lijst met omliggende SSID's, mijn eisen zoals roaming alleen op 5Ghz want 2.4Ghz is IoT, woonsituatie, aantal AP's en posities van die AP's. Hou rekening met zigbee op kanaal 25 in de 2.4Ghz range.

Vervolgens komt chatgpt met opmerkingen als: "Om roaming op 2.4Ghz goed te krijgen...." En zet alle kanalen voor 5Ghz op 36 en 80Mhz want op 160Mhz krijg je overlap... Zucht. Dat corrigeer je dan en dan begint hij over iets wat je al lang gedeeld hebt in diezelfde chat.

Dan ben ik nog een uur aan het stoeien, schakel ik intussen ook naar Grok, Claude, copilot en Gemini en allemaal negeren ze structureel eerdere prompts. Eigenlijk moet je alleen maar je initiële prompt kopiëren en gaandeweg wijzigen.

Maar ook opdrachten als "gebruik geen emoticons" of "ik zoek geen vriend maar een simpel antwoord" worden weer structureel genegeerd waarbij ik dan antwoorden krijg als "ik snap je frustratie". NEE!

Ik kan je wel wat letterlijke prompts via PM delen hoor haha.

Ik heb met de betaalde ChatGPT heel veel aan conditionering gedaan en ben er nooit happy mee geweest en ik heb de meest uiteenlopende taken getest. Ook taken waarvan ik dacht "hier ben je perfect geschikt voor" zoals een tijdlijn maken van 800 documenten met "deze" rode draad of logaritmisch denken zoals een fuel map voor een powercommander maken en als zoekmachine inzetten waarbij dus meerdere bronnen geraadpleegd en samengevat worden.

Als je iets verkoopt als Intelligent schep je bij mij een aantal verwachtingen, kennelijk liggen die te hoog.

[Reactie gewijzigd door sanscorp op 22 februari 2026 08:24]

Hmmm dat is wel vervelend. Mijn ervaring is wel met de betaalde chatgpt dat het met de juiste instellingen heel veel onthoudt. Dus ik kan in een nieuw gesprek verder gaan met iets uit het verleden. Vlekkeloos is het niet, maar het werkt voor mijn gevoel 80% goed.
Het is bruikbaar niet bruikbaar beetje bruikbaar AI is er nu en blijft ook en kan zeker nuttig zijn en niet nuttig of soms een beetje wel niet zinnen herformuleren dat gaat OK maar ook weer niet of toch wel en niet of een beetje.

Dank voor de helderheid..
We hebben toch wel iets kunnen leren van het ongeremd toepassen van techniek inmiddels. Persoonlijk vind ik het wel fijn dat er mensen zijn die zich richten op de negatieve aspecten van nieuwe technologie en dan wijzen op de risico's. Ook al zijn er voordelen, is dat toch belangrijk.

En ja, fijn dat men modellen maakt voor het herkennen van allerlei zaken in scans met MRI's. Dat deed men ook voor de LLM-revolutie en dat zal men ook wel blijven doen als er geen LLM-revolutie is.

Ik dacht ook net als jij tijdens de opkomst van het internet, dat eeuwige geklaag over social media, wie raakt daar nu verslaafd aan? Nou... inmiddels is er voldoende onderzoek geweest en ik had keihard de risico's onderschat.

N.B. in mijn eigen tijd gebruik ik AI ook met plezier.
Eens. En ik vrees met grote vreze dat het mbt 'verslaving' helemaal uit de klauwen gaat lopen met AI.
Als je nu al ziet hoeveel AI-vrienjes/vriendinnen er al zijn...

Maar ik volg Tweakers omdat ik geinteresseerd ben in ICT/Techniek en vooral AI.
Als er specifieke nieuwe ontwikkelingen zijn, dan ben ik benieuwd naar de ervaringen van mensen mbt die specifieke ontwikkelingen...

Het algemene geklaag heb ik voldoende gehoord ("De bubbel gaat barsten, het vreet energie, het is onbetroubaar, het is gebakken lucht. AI is geen AI maar een LLM").

Als er een artikel komt over de risico's van AI, verslaving, en impact op menselijke relaties en/of milieu.... dan zal ik met interesse de reacties lezen. Maar bij elk AI-achtig artikel lees in nu dezelfde riedel...
Best herkenbaar. Dat was ook zo toen met de opkomst van het internet. Op verjaardagen had iedereen het over hoe gevaarlijk het was voor kinderen. Dat worldonline een shit aandeel is. Dat eccommerce onbetrouwbaar is. Dat de telefoonkosten belachelijk zijn. Dat er te veel betaald word voor mensen die ICT doen. Dat de nasdaq gebasseerd is op een bubbel. Ik vergeet er vast nog wel een paar. En je had ook van die fanboys toen, de information superhighway gaat alles verbeteren. Gezondheidszorg voor iedereen gratis. E-overheid. E-studeren. VVMU! Avatars. Digitale assistenten (ja was toen ook).
Nee ik neem zeker niet alles voorlief, ik heb een zelfdenkend vermogen. En controleer ook wel of er een bron voor is. Maar hij verteld genoeg dat wel waarheid is, maar ook in de auto bel ik wel eens met chatgpt. Bijvoorbeeld als ik net uit een gesprek kom en iemand wat zaken verteld waar ik niet eerder van gehoord heb. Voor mij is dat time management
Tegen de tijd dat deze uitkomt, kan de Nest mini dat ook. In de Vs zijn ze al aan t testen met Gemini in Google speakers.
Klopt inderdaad, daar wacht ik ook op. Is wel een duurder abonnement overigens.
Ben je je bewust van hoeveel foutieve informatie je krijgt voorgeschoteld die je voor waar aanneemt?
Apple en Amazon hebben toch ook een slimme speaker?

De vraag is dus vooral: wat maakt de speaker van OpenAI uniek waardoor je die wil kopen en niet die van de concurrentie?
De vraag is dan ook nog wat OpenAI er aan denkt te gaan verdienen. Amazon heeft tientallen miljarden afgezonken in Alexa, met het idee dat Alexa de manier was om uitgaven bij Amazon te kunnen stuwen. Dat viel in de praktijk nogal tegen, en dan heeft Amazon nog wel een flink assortiment om uit te verkopen.
Laten we heel eerlijk zijn. De Google assistant in mijn Nest Hubs zijn echt waardeloos voor alles behalve simpele smartverlichting bedienen.

Lijkt mij dat een assistent a la ChatGPT dit allemaal kan oplossen.
Dus jij geeft een LLM toegang tot je creditcard en accountegevens? Wat zou er nu mis kunnen gaan...
Ik koop hem meteen als de prijs eningzins ok is
Zelfs met verlichting bedienen of een timer instellen zit ik er vaak mee te vechten, het is bijna grappig dat google met al zijn macht dit niet goed voor elkaar krijgt.

Ik zou inschatten dat ze juist te ambitieus waren met hoeveelheid hardware, features, netwerken die ze ondersteunen. En dat het daarom lastig is de boel goed te updaten op een manier waarop alles blijft werken.
Het is maar wat je slim noemt.....

Siri verstaat mij de helft van de tijd niet en er is geen enkele mogelijkheid om dat te verbeteren. Alexa kan veel te weinig; buiten producten bestellen bij Amazon kom je niet heel ver. En Google smart speakers staan op de permanente blacklist sinds ze gebruikt worden om reclame door je huis te gillen.

Nee, er is zeker een gat in de Smart Speaker markt. Dat begint en eindigt echter bij;
- Hoe zit het met m'n privacy?
- Hoe goed is de stemherkenning?
- Wat voor skills heeft het ding?
Dat OpenAI levensvatbaar wordt (hopen ze dan op).

voor de consumenten? Niets

[Reactie gewijzigd door ThaStealth op 20 februari 2026 21:12]

Dan moeten ze een heel flink prijskaartje eraan hangen. Of een abonnement verplichten natuurlijk, maar ben benieuwd of dat nou echt storm gaat lopen....
Natuurlijk gaat het niet storm lopen. Het zal een Cloud speaker worden. Dus ja, je zal ergens een abonnement op moeten aanschaffen. En dan volgt het integratie probleem. Daar waar Apple, Google en Samsung al een compleet eco systeem bij hun klanten hebben uitgerold, heeft OpenAI nog niets. Dus wat ga je vanuit de OpenAI Cloud aansturen?
Als ik kan zeggen "stuur mailtje naar de garage om een afspraak te maken" of "bestel wc papier op bol", en het werkt betrouwbaar, dan zou ik dat wel fijn vinden.
Dat kan je telefoon over een paar maanden ook, als het al niet zover is.
Krijg je een toilet en een blok A4tjes de volgende dag geleverd :+
Dat zou heel fijn zijn maar er komt nogal wat bij kijken.

Ik heb toevallig net toiletpapier besteld. Via de AH app op mijn telefoon want daarmee doe ik wekelijks boodschappen. Ik wil gewoon goed, meerlaags toilet papier hebben. Maar of het Page of Edet is, dat maakt mij niks uit. Dat is mooi zeg, Edet is in de bonus komende week, 1+1 gratis. Doet u maar een pak van 16 rollen en dan krijg ik er een tweede pak gratis bij.

Auto liet deze week ook weten dat het tijd is voor onderhoud. Ford app gestart op mijn telefoon. Klik op onderhoud en afspraak maken. Kom ik terecht op de afspraken site van de lokale dealer. Die wil eerst de kilometerstand hebben om te bepalen wat er moet gebeuren. Dat is fijn, de Ford app heeft de actuele kilometerstand, kan ik zo overnemen. Dan krijg ik de vraag of ik de economy beurt af wil nemen of de uitgebreide beurt met gratis pechhulp voor twee jaar. Daarna vraagt hij wel of geen APK en krijg ik de keuze of ik wel of geen (betaald) vervangend vervoer wil hebben. Daarna kan ik een datum en breng tijd selecteren. Klaar, en meteen een bevestiging ontvangen in de email. Allemaal via mijn telefoon.

Hoe verwacht je dergelijke zaken via een OpenAI speaker te regelen?
Daarom komt een speaker ook echt dom over op mij inderdaad. Een pen had innovatief over kunnen komen, maar zeker ook zijn beperkingen gehad.

Een memopen die opneemt als je indrukt (hopelijk alleen dan) en geintegreerd is in een goede assistent omgeving. Dat had wel iets geweest. Toch zelf maar gaan knutselen dan.. :D
een paar pleisters op de enorme uitgaande geldstroom bij OpenAI. Ik verwacht ook wel dat het enorm goed zal verkopen bij bepaalde volkssegmenten.

De IPO van OpenAI dit jaar zal ook initeel exploderen. Het moet allemaal echt een klap krijgen voordat mensen wat terughoudender worden en na gaan denken
Ik denk precies het tegenovergestelde, ik denk dat de beursgang van OpenAI weleens het begin van het klappen van de bubbel kan gaan worden. Net zoals destijds met Worldonline.

Dat xAI eerst geïntegreerd wordt met SpaceX voordat ze naar de beurs gaan, is wel een teken aan de wand.
Een incompleet boodschappenlijstje
Precies. Want we hebben nog niet genoeg 'slimme speakers' waarbij de levensduur gepaald wordt door softwareondersteuning. We hoeven niet overal een device voor te hebben :)
Welk probleem hebben speakers of lampen opgelost? Voor de speakers kon je live muziek horen. Lampen? Kaarsen verlichten toch ook? Heeft ook nog eens banen gekost, want de kaarsenaanstekers van de straatverlichting hadden geen job meer hierdoor.

Ik begrijp wat je wil zeggen hoor, maar niet alles moet ontstaan omwille van een probleem. Meer dan genoeg innovatie die weinig te maken hebben met problemen op te lossen. Maar veel om het gebruiiksgremak te verhogen (en hierdoor nieuwe problemen maken die opgelost moeten worden :D)

Ik moet nog altijd denken aan de verkoper die proberen zijn domotica systemen aan te prijzen:
"Ja, en dan kan je met de app het raam sluiten als je kinderen deze (weer) zijn vergeten te sluiten" Oplossing voor een probleem dat er geen is, want als ouder stuur je je kind gewoon terug naar boven om het raam te sluiten... na een tijdje vergeet ie dat niet meer :p .
Problemen verzin je natuurlijk gewoon zelf, en dan kun je er ook vast een oplossing bedenken.

Maar alsje geen domotica hebt weet je natuurlijk ook niet dat het raam open staat.

Verder zijn er nu meer banen, want dat is in het verleden altijd gebleken sinds de industriële revolutie.
Het creeert wel een probleem. Namelijk dat OpenAI (weer een Amerikaans bedrijf) Nog meer van je te weten komt.
Weten ze het eigenlijk zelf wel wat ze nu gaan uitbrengen :/. Met een slimme speaker gaan ze het lekkende schip niet boven water houden. Ik heb er persoonlijk weinig vertrouwen in. Dit lijkt wederom een zoethoudertje voor de investeerders.

Een slimme bril zie ik ook weinig in. Google glass had ook geen lang leven omdat simpelweg er geen vraag is naar een dergelijk gadget.
Die ray-ban meta brillen schijnen anders bijna niet leverbaar te zijn vanwege de enorme vraag.

Er wordt zo krankzinnig veel geld in AI geduwd. De modellen worden elke 2 maanden slimmer, concurrentie is moordend, tools worden alleen maar beter.

Dit is gewoon de nieuwe race naar de maan maar dan zonder eindstation.

AI mag dan dan niet winstgevend zijn. Maar er is zo veel belang om als eerste AGI te bereiken dat geld eigenlijk geen eens een issue meer is. Zie het een beetje als het geld wat jaarlijks naar defensie gaat. Dat kun je ook een bodemloze put noemen. Maar ergens is het ook wel fijn dat je bescherming er voor terug krijgt.
Ik denk niet dat we met LLM's AGI gaan bereiken. Ik vermoed dat we dan toch weer een nieuwe ontwikkeling gaan moeten maken of in crazy computeversnelling en efficiëntie en al bestaande andere neurale netwerkmethodes of weer iets nieuws zoals de transformer was.
Google Glass was voor LLMs, zou nu wel heel anders liggen denk ik.
OpenAI heeft meer dan honderd miljard aan investeringen gehad. Een slimme speaker is nou niet zulke state-of-the-art hardware dat het veel impact zal hebben op dat budget.
Ik verwacht dat dit heel pijnlijk gaat worden voor OpenAI, hardware is toch echt een heel andere markt dan waar ze mee bekend zijn. We zullen zien wat ze ervan gaan maken!
Maar echt. Dit bedrijf heeft geen focus. 0. Hardware toevoegen, serieus. Scatter all over the place.
Een smart speaker kost hun bijna niets, de chips en speaker kun je bij een Chinese fabrikant kopen, zet je logo erop en een custom API en ze krijgen hun infra toch gratis van Microsoft.

Dit is grotendeels een manier om te adverteren. Net zoals de Amazon en Google smart speaker loss leaders zijn.
Maar echt. Dit bedrijf heeft geen focus. 0. Hardware toevoegen, serieus. Scatter all over the place.
All over de place omdat ze hardware maken? Als
Je er over nadenkt gaat voor consumenten de crux liggen bij de combo hardware/software omdat context alles is.

Voor de interactie en voor context. AI-agents zonder awareness zijn blind. Geen idee waar OpenAI hardware gaat op inzetten maar als bijv home automation wil masteren heb je ‘boots on the groud nodig’ = hardware.

Elke groot AI bedrijf is tools aan het ontwikkelen om Agents te sturen. Agents die API’s aansturen. Dan kan uw lamp of TV zijn, surfen op het web, meekijken op uw deurbelcamera, notificatie’s sturen etc.

Enkel de grote bedrijven zoals bijvoorbeeld Apple en Google kunnen en zullen zowel inzetten op hardware én software. B2B en B2C. Het is ergens logisch dat OpenAI ook daar voet aan grond wil krijgen.
Je hebt een goed punt hoor. Maar OpenAI is hun marktleidende postie kwijt. Ja, Jan en alleman kent ChatGPT inmiddels maar verder loopt OpenAI achter de feiten aan. Ik betwijfel of een slimme speaker toevoegen het gaat omkeren voor OpenAI, aan de andere kant is dit misschien wat Jan en alleman over de streep, juist omdat ze Chadje al kennen.
Welnee, OpenAI mist het eco systeem. Dus wat gaan ze verder integreren met hun AI Speaker? Daarnaast zal de speaker vanuit de Cloud ondersteuning nodig hebben dus zal er ook nog een maandelijks abonnement noodzakelijk zijn.

Hoe willen ze daarmee gaan concurreren met Google, Samsung of Apple die allang een eco systeem hebben uitgerold en alles integreren?
OpenAI verkoopt zichzelf aan investeerders met gigantische groei en daarmee winst verwachtingen in de toekomst. Recentelijk hebben ze weer 100 miljard (naar eigen zeggen) binnen gehengeld. Daarmee doen ze gigantische investeringen die razendsnel minder waard worden. Immers een B200 mag nu een berg centen kosten volgens jaar is die de helft waard.


Deze investeringen zijn totaal kansloos, hun hardware is op termijn niks meer waard dus concurrenten kunnen in de nabije toekomst zichzelf voor een fractie inkopen. Hun techniek idem, steeds grotere modellen met steeds minder grote verbeteringen, dus ook hier zal de concurrentie in de nabije toekomst veel makkelijkerer op inspringen.

Niet alleen OpenAI maar deze hele wedstrijd zal geen winnaars kennen, enkel verliezers. En als het OpenAI en co was die omvallen tot daaraan toe, maar onze pensioenen onze economie enz zit daar dus heel diep in en gaat daar samen mee ten onder.
Op dit moment is er nog steeds sprake van verbeteringen. Denk aan skills en zelfs hoe men MCP's weet te linken aan de modellen. Attention is nog niet 'af' en hardware die modellen 'bevat' worden nu haalbaar. Dat Cowork en openclaw/picoclaw is ook allemaal nog nieuw.

De enige parallel is misschien, dat ten tijde van de beursgang van worldonline de componenten meer in beweging waren dan de diensten die worldonline bood. Daar gaan we nu misschien naartoe met zo'n cowork en picoclaw en dergelijke.
Waar jij het over hebt is eerder verbreding, maar inherent betere modellen niet enkel door meer gewicht eraan te geven, kan me vergissen maar dat gebeurd niet. Nieuwe modellen die worden gereleased zijn steeds groter, slurpen steeds meer energie, maar zijn niet inherent anders/beter, enkel zwaarder.

Dat ze vervolgens leuke dingetjes doen zoals speakertjes maken, of MCPs doet niks af aan mijn eerdere statement.

Het gevolg is dan ook dat partijen geen top positie kunnen innemen, immers wat OpenAI nu doet, kunnen andere nagenoeg net zo goed en op termijn vermoedelijk even goed. Zelfs nieuwe partijen die nu nog niet actief zijn, zullen zich op een zelfde niveau kunnen positioneren zonder dat ze de gigantische investeringen doen die OpenAI nu doet.

Waar typisch grote investeringen een "moat" vormen, en horde die voor andere partijen moeilijk is om te overbruggen is dat niet het geval bij LLMs. Er is een grens aan wat modellen echt kunnen, terwijl de iron waar nu honderden miljarden in gedumpt wordt gigantisch afschrijven.

Zoals ik dan ook al eerder aangaf, qua ontwikkeling heeft men geen moat voordeel en qua iron is het sunk cost die gigantisch snel minder waard wordt. Sterker nog de winsten die OpenAI verwacht zijn nog maar de vraag wanneer iron zoveel goedkoper wordt is het kwestie van tijd dat andere partijen eender modellen aanbieden tegen een fractie van de prijs.
Je hebt een duidelijk punt. Maar zie het iets verschoven ten opzichte van hoe jij het beschrijft. Maakt het uit dat iets al redelijk vaststaat als je nog steeds veel betere manieren vind om er gebruik van te maken. Het wiel is zo'n voorbeeld dat waarschijnlijk uitgevonden is in de mijnbouw voor een vrij beperkte toepassing en inmiddels overal terugkomt in verschillende verschijningsvormen en toepassingen. Nu is het wiel natuurlijk een extreem voorbeeld, maar probeer hier te duiden in welke richting een andere gedachte kan gaan over dit onderwerp.

Dus met dezelfde analogie: vorm en grootte weten we ongeveer, nu komt het op de toepassingen en de materialen aan.
Jonathan Ive daarentegen. Hardware komt wel goed zolang LoveFrom er aan mag werken.
Ik denk dat je product design en hardware design door elkaar haalt… het product zal er ongetwijfeld goed uit zien en qua human interaction heel fijn werken, dat kan je wel aan Ive overlaten. Tegelijkertijd is het ook belangrijk om de hardware goed te laten werken en daar kan OpenAI flink de bal laten vallen. Ik zeg niet dat het zo is of dat dat zal gaan gebeuren, maar ik wijs alleen even op de taken van Ive en de overige taken.
Je doelt op de chips? Die zullen gewoon ingekocht worden. Het gebeurt toch in de cloud.
Pcb, chips, microfoon array, speaker, firmware, etc…
Misschien zie ik het revolutionaire van deze hardware gewoon nog niet. Generatieve AI is voor de consument een software revolutie. Mijn aanname is dat de hardware alleen bestaat uit bestaande hardware.
Er is werkelijk niks revolutionairs aan, dat is ook niet wat ik zeg. Het ging mij om het feit dat geroepen werd dat omdat Ive er aan werkt het wel goed zou zitten, maar het werk wat Ive eraan doet (of laat doen) is slechts een deel van de puzzel.
IO (het AI device bedrijf wat voorheen van Ive was maar door OpenAI is overgenomen) is niet hetzelfde als LoveFrom.

https://openai.com/sam-and-jony/

[Reactie gewijzigd door Carino op 21 februari 2026 13:00]

Dus 300 dollar betalen om al je privacy in een kamer op te geven, wat gedeeld wordt met amerikaanse inlichtingen en wat krijg je ervoor terug?
300 dollar so far.

Ik kan me niet voorstellen dat je dit in de oneindigheid met gratis ChatGPT kunt gebruiken.
Palantir social credit
10 watt audio kwaliteit en storende spotify.
200 man werken aan slecht 3 relatief simpele hardware voor pakweg een jaar. Ik denk dat ik mijn werkgever maar aan moet tikken dat ik ook een 1-urige werkweek wil.
Als het niet om off the shelf hardware gaat, dan is 200 weinig denk ik. 200 is überhaupt niet zo veel als je je bedenkt met wat het allemaal gaat moeten kunnen mee samen werken van integraties tot live video feed verwerken etc, zelfs met off the shelf spullen.
Het is heel simpel,Google gooit er een paar updates tegen aan en hun speaker is gedoemd te mislukken aangezien ze grote zorgen hebben over hun ai
Eindelijk kan ik de hele dag praten met iets of iemand die al mijn ideeën ondersteund
Eindelijk kan ik de hele dag praten met iets of iemand die al mijn ideeën ondersteund
Eigenlijk is het dus een buddy voor eenzame mensen, ouderen en dictators Ja, daar zie ik wel toekomst in.
Daar zitten we ook echt op te wachten ja..
Tot zover revolutionaire hardware, wat een grap.
Een slimme speaker met camera en gezichtsherkening?
Moet niet gekker worden.

Om te kunnen reageren moet je ingelogd zijn