ChatGPT's spraakmodus kan voortaan tijdens gesprek afbeeldingen tonen

OpenAI heeft ChatGPT Voice geïntegreerd in de chat. Gebruikers worden daardoor niet langer naar een aparte omgeving gestuurd als ze de spraakmodus van de AI-assistent willen gebruiken. De chatbot kan nu tijdens het spraakgesprek onder meer relevante afbeeldingen tonen.

OpenAI heeft de verandering meteen beschikbaar gemaakt in de webversie en in de nieuwste update van de mobiele app. Als gebruikers de spraakmodus starten, wordt er niet langer een apart venster geopend, maar blijft de chat zichtbaar. Daarin verschijnt een transcript van de antwoorden van de chatbot. Ook kunnen er hierdoor meteen afbeeldingen getoond worden die door de gebruiker worden opgevraagd. Als gebruikers de afgezonderde Voice-omgeving prefereren, kunnen ze de aanpassing terugdraaien via een nieuwe optie in de instellingen van ChatGPT.

ChatGPT Voice
ChatGPT Voice

Door Kevin Krikhaar

Redacteur

26-11-2025 • 19:35

17

Submitter: TheProst

Reacties (17)

Sorteer op:

Weergave:

GPT spraakassistent is nog wel minder krachtig dan de gewone chat. Als je doorvraagt krijg je vaak geen antwoord op uw vraag en het blijft oppervlakkig.

ik gebruik de spraakassistent vaak in de auto op mij bijvoorbeeld in te werken in een topic maar ik blijf vaak op mijn honger zitten. Ook zoekt hij minder goed online dingen op waardoor de antwoorden vaak fouten bevatten of niet up to date zijn.

Dus ik heb liever betere spraak dan spraak die ook afbeeldingen kan genereren.
Spraak gebruikt alleen het instant model, en bij typen kan je ook thinking (en sommige Pro) gebruiken.
Je kan ook dicteren voor een combinatie van de voordelen
Klopt dat doe ik ook vaker, dan kun je het thinking model gebruiken, en een ander voordeel is dat het ook bij onstabiele verbindingen goed werkt.
Ah dat laatste wist ik niet. Bedankt voor de tip
Ik gebruik veel AI tijdens het software ontwikkelen en dat is echt een versneller. Waar ik voorheen dagen naar het zoeken was prompt ik nu in minuten in essentie in elkaar. Nog wat tweaken en ik heb iets bruikbaars.

Maar toch heb ik het idee dat de route van de LLMs een beetje is zoals een auto steeds sneller maken. Tuurlijk gaat het steeds harder en beter maar de lichtsnelheid gaan we via die route nooit bereiken. Zo kunnen we de LLMs steeds groter en efficienter maken maar de echte revolutie is wel geweest. Echte intelligentie heeft iets anders nodig. Maar goed, een fijne snelle auto is ook al een enorm handig hulpmiddel.
makkelijk voor het tonen van een goede slipknot :+

nieuws: OpenAI: tiener schond voorwaarden, ChatGPT niet aansprakelijk voor zelfdoding *bronvermelding toegevoegd

[Reactie gewijzigd door Dopey87 op 26 november 2025 21:05]

I push my fingers into my eyes
It's the only thing that slowly stops the ache


oh wait. 🧐

🤦🏾‍♂️ Different slipknot
Oh jee, de progressie raakt uit de ontwikkeling. We gaan dwars ipv omhoog. Is dit dan het begin van het einde?

Klinkt alsof de llm voor je googled en de image resultaten toont. Het zou revolutionair zijn als hij die plaatjes live zelf kon maken op acceptabele snelheid.

Ik pak de popcorn wel alvast.
Ik denk dat zoeken op internet meestal toch wel beter is. Ik denk als je een plaatje wil zien dat dit meestal toch realistisch moet zijn en geen zelf verzonnen iets. Toon mij grafieken van de beurs, hoe zit (vul naam van ding / persoon in) eruit, ect. Natuurlijk zou het kunnen zijn dat sommige dus fantasie plaatjes willen (maak een plaatje van de Tweakers logo rijdend op een draak) maar hier zijn genoeg andere sites voor.
Een grafiek met data van de beurs, maar dan specifiek afgestemd op de door jou gestelde situatie is natuurlijk beter dan een standaardplaatje. Als je wilt weten hoe aandeel 1 zich afzet tegen aandeel 2 in de afgelopen 7 jaar, met daarbij een lijn voor het aantal dagen dat het vroor in elk jaar, dan ga je dat plaatje niet zelf vinden. Als ChatGPT wel die data kan vinden én dit correct af kan beelden, is dat wel een pluspunt.

Kleine disclaimer; ik geloof niet dat de afbeeldingsgenerator van ChatGPT dit op het moment kan. Die van Gemini ("Nano Banana Pro") kan het ondertussen wel.
Je heb inderdaad gelijk. Er zijn inderdaad uitzonderingen. Toen ik aan beurs dacht zat ik meer te denken aan dat er dus potentieel een hallucinatie grafiek gemaakt zou worden waarbij dit dus wel data zou zijn wat goed moet zijn. Ik had inderdaad niet aan persoonlijk afgestemde grafieken gedacht. Al blijft mijn punt wel gewoon staan. Veel dingen wil je wel gewoon een echte foto van zien in plaats van een verzonnen iets of heeft het gewoon geen zin om de energie erin te steken omdat er genoeg op internet te vinden is. Als ik wil weten hoe Bill Gates eruit ziet heb ik dus liever toch een echte foto in plaats van dat AI er 1 maakt (zelfs al zou dit aardig realistisch zijn).
Jep, als het foto bijvoegt wanneer het over feiten gaat, wil je een authentieke foto zien (of hooguit een zorgvuldig samengestelde collage). Een AI-gegenereerde foto van een brandend huis onder een nieuwsbericht over een woningbrand voegt niks toe (en een foto van het echte afgebrande huis waarschijnlijk ook niet).
Wat zijn de reacties over AI hier op tweakers toch ontzettend zuur allemaal. Als je je een beetje in de wereld verdiept weet je dat de ontwikkelingen zelfs steeds harder gaan.
Recent van GPT 5.0 naar 5.1 was een gigantische stap voorwaarts, zelfs groter dan van 3o naar 5.0. Gemini 3 is een gigantische stap voorwaarts. Nano Banana Pro is ook echt steengoed.

Daarnaast in de lokale modellen is recent uitgekomen: Qwen 3VL, die erg goed in het interpreteren van afbeeldingen is, en op bijna elke huis tuin en keuken PC draait.

Ik volg de /LocalLLaMA/ reddit, daar komen alle laatste ontwikkelingen langs op het gebied van lokale LLM's. En ik kan je vertellen dat er geen week voorbij gaat zonder weer een nieuw en interessant model dat weer dingen net iets beter doet dan zijn beste voorganger.
LLM's zijn absoluut niet gepiekt, ze blijven voorlopig nog steeds ontzettend grote stappen maken. Ik denk dat je teveel op afstand staat tot de ontwikkelingen als je niet ziet hoe groot de stappen zijn die recent gemaakt worden. Zowel in de cloud LLM's, zoals die van OpenAI en Google. Maar zeker in de lokale LLM's, die afgelopen half jaar van Dense modellen naar MoE's zijn overgestapt. Door MoE modellen, kunnen er ontzettend krachtige modellen op heel erg betaalbare hardware draaien.

Op dit item kan niet meer gereageerd worden.