OpenAI introduceert AI-model GPT-4o en brengt macOS-app uit van ChatGPT

OpenAI heeft zijn nieuwe AI-model GPT-4o uit de doeken gedaan tijdens zijn Spring Update. Het model is volgens OpenAI twee keer zo snel als GPT-4 Turbo en is beschikbaar voor alle gebruikers. Daarnaast brengt het bedrijf ChatGPT uit voor macOS.

Volgens OpenAI is GPT-4o 'veel sneller' en verbetert het model de mogelijkheden voor tekst, beeld en audio. Waar GPT-4-modellen voorheen alleen voor betaalde gebruikers beschikbaar waren, komt het GPT-4o-model 'in de komende weken' gratis beschikbaar voor alle gebruikers. De limieten voor betalende gebruikers liggen echter vijf keer zo hoog. De 'o' in de naam staat voor Omni, wat moet wijzen op de veelzijdigheid van het model. OpenAI-ceo Sam Altman meldt op X dat het model 'native multimodaal' is, waardoor het opdrachten in spraak, tekst en beeld kan 'begrijpen'. GPT-4o komt ook beschikbaar voor de api. Het model is de helft goedkoper dan GPT-4 Turbo en ondersteunt vijf keer hogere limieten.

GPT-4o verbetert ook de Voice Mode van ChatGPT, waardoor de chatbot nog beter als slimme assistent kan dienen. Het model kan in 'real time' reageren om vragen van de gebruiker. OpenAI schrijft dat het model gemiddeld 320 milliseconden nodig heeft om te reageren. Dat zou vergelijkbaar zijn met de menselijke reactietijd. Bij GPT-4 had ChatGPT volgens OpenAI nog gemiddeld 2,8 seconden nodig om te reageren. In de livepresentatie was daarnaast te zien dat GPT-4o in staat is om emotie op te merken in de stem van de gebruiker. Ook kan het zelf stemmen genereren in diverse emotionele stijlen. De verbeterde stemervaring wordt komende maand beschikbaar voor Plus-gebruikers.

Ook komt OpenAI met een desktopversie van ChatGPT. De desktopapp krijgt een vernieuwde gebruikersinterface die het navigeren en de toegankelijkheid moet verbeteren. De desktopapp is beschikbaar voor zowel gratis als betaalde gebruikers, maar is vooralsnog enkel te gebruiken op een macOS-systeem. De Windows-versie verschijnt 'later dit jaar'. ChatGPT is al al langer beschikbaar als app voor iOS en Android.

Door Sabine Schults

Redacteur

13-05-2024 • 19:27

88

Lees meer

Reacties (88)

88
87
35
3
0
40
Wijzig sortering
Bijzonder dat het allemaal in de gratis versie zit! Ik zie in het bericht op openai.com niks over nieuwe verbeteringen of functies die in de betaalde versie komen. Wat zou de betaalde versie dan nog toevoegen?
Zo begint het altijd. AI is een opkomende dienstverlening. Het is nu een echte vechtmarkt. Of je haalt nu je gebruikers binnen, desnoods door het gratis te maken, of je bent straks zo klein dat je niet meetelt.

Als de markt straks verdeelt is begint de enshittification en mag je pas echt gaan betalen.
Als de markt straks verdeelt is begint de enshittification en mag je pas echt gaan betalen.
of je verkoopt je privacy / psych profile. Gratis en voor niets!
Gpt4o en turbo zijn lang niet zo goed als de normale gpt4.
Op Reddit zijn de eerste benchmarks te vinden. En die onderstrepen jouw reactie niet.
Gpt4o en turbo zijn lang niet zo goed als de normale gpt4.
Blijkt uit?... gemopper op Reddit en verder uit geen enkele benchmark.
Dan selecteer je toch gewoon die andere GPT-4 versie via de API of Playground of ga met Claude3 aan de slag!
Snelheid als ik het zo snel lees op de site.
As of May 13th 2024, Plus users will be able to send 80 messages every 3 hours on GPT-4o. and 40 messages every 3 hours on GPT-4. The message cap for a user in a ChatGPT Team workspace is approximately twice that of ChatGPT Plus.
Plus
For individuals looking to amplify their productivity
Access to GPT-4, GPT-4o, GPT-3.5
Up to 5x more messages for GPT-4o
Access to advanced data analysis, file uploads, vision, and web browsing
DALL·E image generation
Create and use custom GPTs
Free
For individuals just getting started with ChatGPT
Assistance with writing, problem solving and more
Access to GPT-3.5
Limited access to GPT-4o
Limited access to advanced data analysis, file uploads, vision, web browsing, and custom GPTs
Zal mij niks verbazen als ze net een megadeal met Apple hebben gesloten die ze samen met deal met Microsoft voldoende kapitaal geeft om dit gratis te blijven doen voor gebruikers.
Ik kreeg meteen een berichtje toen ik net ChatGPT opende dat ik nu GPT 4o kon proberen. En ik merk zeker ook het snelheidsverschil tov GPT 4! Maar het zorgt er wellicht wel voor dat ik mijn GPT Plus abbo opzeg; heeft steeds minder meerwaarde, zeker ook in vergelijking met alternatieven zoals CoPilot.
De nieuwe Voice Mode komt als alpha beschikbaar alleen voor ChatGPT Plus subscribers. Verder 5x de hoeveelheid berichten die je mag verzenden vs gratis variant. Tijdens het event is ook gehint op meer aankondigingen specifiek voor plus gebruikers, maar wat ze precies van plan zijn is natuurlijk onduidelijk.
Steeds meer AI bedrijven gaan over op een gratis model met een max aantal prompts en een duurdere abbo voor meer prompts. Maar je moet eerst een klantenbasis hebben.

Denk dat het hier ook achterzit, Open AI wilt meer gebruikers en 4o is een goede lokker.

Gpt 5 zal dan wel betalen worden, of gratis met een max aantal prompts.
Dat model is helemaal niet gek eigenlijk. De incidentele gebruiker kan ervaring op doen en de geavanceerde gebruiker, grote kans dat die het zakelijk gebruikt, betaalt een beetje voor de bespaarde tijd.
Bijzonder dat het allemaal in de gratis versie zit!
Het moet natuurlijk flink getest worden.....

[Reactie gewijzigd door Fermion op 22 juli 2024 15:20]

is me niet duidelijk waarom je reddit citeert die verwijst naar data op de OpenAI site?

Voor het complete overzicht: https://platform.openai.com/docs/models/gpt-4o
Kan iemand mij uitleggen wat dan het nut is van mijn abbo? Komt er dan een gpt 5 aan of ? Zie nu niet echt het nut van in als je alles gratis ook voor elkaar krijgt.
Ik heb dezelfde vraag. Zoals ik het lees krijgen de premium users een hoger aantal responses.
En voorrang als het druk is op de servers. Ofwel vrijwel niet meer wachten op responses. Als ik nu moet wachten is dat veelal omdat ik een te uitgebreide beschrijving in 1x heb gegeven van wat ik wil aan code.
Als ik tot nu toe voorrang heb gekregen heb ik dat even gemist. Misschien nog erger als je geen abo hebt, maar ik stond op het punt een klacht in te dienen en mijn geld terug te vragen.
Betaalde abonnement heb je ook toegang tot "GPT's". Dit zijn voorgetrainde modellen, en jij kunt ze zelf ook maken. Daarnaast reageert de AI sneller (meer tokens/seconde), hogere limieten, en in dit geval dus ook early-access tot desktop applicatie.

En volgens mij heb je ook in chatgpt gratis toegang tot afbeelding interpretatie en generatie
Je hebt een hoger limiet voor prompts via GPT-4 en GPT-4o. Daarnaast heb je o.a. via het Plus-abo ook de mogelijkheid files te uploaden met je prompts, custom GPTs gebruiken en DALL-E voor het genereren van afbeeldingen. Vooral dat eerste (file-uploads) gebruik ik regelmatig, de rest niet zozeer, maar het hogere limiet en file-uploads zijn voor mij reden genoeg om toch te betalen voor het abonnement, alhoewel ik het wel wat aan de prijzige kant vind.
Ik gebruik het om op een site geposte plaatjes van wetenschappelijke artikelen terug om te zetten naar MarkDown & MathJax. Dat kost heel veel werk als je het handmatig moet doen. De resultaten zijn niet altijd super - je moet alles echt wel een keertje nalopen - maar het werkt beter dan ik had durven hopen.

Ben wel benieuwd of mijn GPT's nou ook in 4o werken of niet, is mij niet helemaal duidelijk.
Black Mirror is real. Die assistent is indrukwekkend. Geeft Google wel aardig het nakijken
Morgen is Google IO dus verwacht dat zij ook grote stappen gaan tonen
Hoop dat ze het eens in een slimme speaker stoppen, want mijn slimme speaker is behoorlijk dom.
Ik denk dat dit de volgende stap is, zou me niets verbazen dat Apple hiermee komt. Je moet je ook afvragen of je wel zo’n intelligent systeem mee wilt laten luisten in je huis.
Op privacygebied is google natuurlijk niet echt een optie. Voor mij niet in elk geval.

Nou ben ik ook niet erg blij met OpenAI van Sam Altman met zijn idiote irisscanners, lekker iedereen zijn biometrie verzamelen... :F Die heeft ook niks op met privacy. Ik ga maar een eigen AI server opzetten om het lokaal te draaien.

[Reactie gewijzigd door Llopigat op 22 juli 2024 15:20]

3 ton euro'tjes aan hardware is best dedicated om 20 euro te besparen en een beetje privacy te waarborgen. :9 De dingen die wel haalbaar zijn om te draaien op jan modaal hardware, zijn het simpelweg niet waard.
Dan heb je Llama3 nog niet geprobeerd denk ik? Dit draait prima op mijn hardware. Sneller dan GPT-4 zelfs. Het is echt retesnel. Ik hoop dat er ook nog een tussenversie komt (mijn hardware kan veel meer aan dan het 8B model en de 70B is weer veel te groot). Een 16B ofzo zou perfect zijn.

Ja ChatGPT is beter. Maar zoveel beter nou ook weer niet. En ik wil er dingen mee gaan doen die ik anders toch niet met een publieke chatbot zou gaan doen, namelijk automatisch prive chats laten samenvatten enzo. Een digitale assistent is des te nuttiger als die alles van je weet maar ik wil niet al mijn data aan de grote cloud partijen geven. Een ander voordeel is dat je ook uncensored versies kan gebruiken waardoor hij minder snel in paniek schiet als het over iets pikantere onderwerpen gaat.

Voor andere dingen die echt een groot model nodig hebben (bijvoorbeeld vragen stellen zonder zelf de context aan te leveren via RAG, dus die hij echt moet beantwoorden uit de trainingset), doe ik dan nog wel met ChatGPT. Overigens betaal ik nu geen 20 euro aan ChatGPT. Ik gebruik de API en die is behoorlijk goedkoop. Ik ben maar een paar euro per maand kwijt. Al ga ik misschien binnenkort wel weer ff een maandje plus pakken om die spraak bot uit te testen.

Als je een PC hebt met een redelijke GPU zou ik zeker ollama eens proberen.

[Reactie gewijzigd door Llopigat op 22 juli 2024 15:20]

Ze zullen wel moeten eigenlijk. Hoe minder het is, hoe verder ze achterlopen.
Benieuwd of ze het “woke” gedeelte een beetje hebben gefixed, anders wordt het niks.
Het live vertalen met deze snelheid is echt vet. Ik denk dat ironisch gezien juist Europa met zijn tientallen talen meer gaat helpen dan iemand nu direct kan voorstellen. Over niet al te langkijk je gewoon live debatten tussen politici in verschillende talen met elkaar terwijl je zelf in je eigen taal kan kijken.

Dit gaat meer voor 1 Europa betekenen dan de euro

[Reactie gewijzigd door Rhaegar1 op 22 juli 2024 15:20]

Tsja. Volgens mij is het elkaar niet goed kunnen verstaan nooit het probleem geweest binnen Europa.
Het werkt alleen voor geen meter wanneer het 1/5e van de woorden verkeerd verstaat en continu zegt van ServerError, ServerError, ServerError!

[Reactie gewijzigd door Minimise op 22 juli 2024 15:20]

Dat is wel een punt. Als je ziet hoe slecht de taalherkenning werkt met copilot in teams bijvoorbeeld. Dan verstaat hij bijvoorbeeld steeds co pooled in plaats van copilot. En daardoor zit de samenvatting aan het eind ook vol fouten (garbage in, garbage out).

Nou hebben we een internationaal bedrijf met veel mensen die niet goed Engels spreken, zoals Fransen. Dus daar komt het ook een beetje door. Misschien dat die in het Frans wel goed verstaan worden, maar de live vertaling is er nog niet en Teams kan niet eens zelf de gesproken taal herkennen, je moet er eentje instellen.
Hoe vaak zie je überhaupt EU-debatten op tv / video? Nu worden die deels in verschillende talen gevoerd en ook live vertaald door menselijke vertalers, voor de politici zelf.

Die live vertalingen zouden dus nu ook al kunnen worden meegegeven aan streams en tv-uitzendingen.

Ik wil niet te negatief doen maar de Europese Unie is een chaos van eigenbelang, recht van de sterkste, lobbyisten en politieke uitruil waar men zich op de borst slaat als er na jarenlang gesteggel eindelijk nog eens iets praktisch zoals een verplicht uniform oplaadstekkertje uit komt rollen.

Zodra er echt iets moet gebeuren, zoals met corona, is het weer ieder voor zich, tegen elkaar opbieden om mondkapjes.
Is het dan nog moeite waard om te betalen voor ChatGPT?
Is het dan nog moeite waard om te betalen voor ChatGPT?
Lijkt me niet snel. Of ze moeten toch allerlei functies afknijpen. Wat de betalende gebruiker nog extra krijgt en of dat grote meerwaarde heeft voor mensen die gewoon wat betere stukken willen schrijven, ideeën willen genereren of inspiratie voor wat argumenten zoeken... GPT 4 kan dat al heel goed.
Ja zeker. Je hebt met Plus een 5x hogere message limit. Met Plus is dat 80 messages per 3 uur op GPT-4o.

Gratis users zullen dus zo ongeveer 15 messages per 3 uur kunnen doen. Dat is naar mijn mening te weinig als je het echt effectief wilt gebruiken. Free users zullen dus al snel weer terugvallen op GPT-3.5.
Een flinke ontwikkeling zo te zien. Opmerkelijk dat het eerst uitkomt voor MacOS t.o.v. Windows, wellicht een voorloper op de aankondigingen van Apple?
Het gaat ineens heel, heel erg snel qua ontwikkeling van die modellen. Het verschil tussen de oorspronkelijke ChatGPT en nu is al flink merkbaar en met deze toevoegingen lijkt die eerste versie straks “prehistorisch”.
Ik denk dat Microsoft liever onder eigen naam een cliënt uitbrengt voor Windows.
Precies: https://copilot.microsoft.com . Zelfs zonder account te gebruiken.

Als chatbot vind ik het niet echt bijzonder (het is gewoon ChatGPT-4-Turbo) maar de plaatjes generatie is DALL-E 3 en die vind ik een heel stuk beter dan DALL-E 2. Die kan je nog niet direct bij OpenAI gebruiken tenzij je de API gebruikt. Dus daarom gebruik ik nog wel eens copilot.

[Reactie gewijzigd door Llopigat op 22 juli 2024 15:20]

Doet me denken aan HER
Had Sam Altman zelf ook al aangegeven dat dat niet zo was.
Ik ben zeer benieuwd waar Google nu mee gaat komen, want dit is nogal een move. De future begins today kun je wel stellen…

Op dit item kan niet meer gereageerd worden.