OpenAI test ChatGPT-app voor Windows

OpenAI werkt aan een Windows-versie van de ChatGPT-app. Een vroege versie van die applicatie is vanaf nu beschikbaar voor gebruikers met een betaald abonnement op de AI-dienst. Het is niet bekend wanneer de ChatGPT-app voor Windows algemeen beschikbaar komt.

OpenAI heeft de ChatGPT-app beschikbaar gesteld in de Microsoft Store, zo bevestigt het bedrijf op zijn website. Gebruikers kunnen de AI-chatbot daarmee in een los venster gebruiken met een interface die gelijk is aan de webversie. Gebruikers kunnen een los chatvenster openen met de toetsenbordcombinatie 'alt' en 'spatiebalk'.

De app laat gebruikers daarnaast bestanden uploaden en afbeeldingen genereren, en krijgt daarnaast een preview van OpenAI's nieuwe o1-model. De vroege versie mist nog wel enkele mogelijkheden uit de web- en macOS-versies, zoals Voice Mode. Deze moeten bij de volledige release alsnog worden toegevoegd aan de Windows-versie.

De nieuwe Windows-app is per direct beschikbaar voor ChatGPT-gebruikers met een betaald Plus-, Enterprise-, Team-, of Edu-abonnement.

OpenAI ChatGPT-app voor Windows
Bron: OpenAI

Door Daan van Monsjou

Nieuwsredacteur

18-10-2024 • 07:31

30

Lees meer

Reacties (30)

30
30
14
1
0
14
Wijzig sortering
Het voelt op basis van de nieuwsberichten dat Chatgpt 'de' goto tool is. Maar ik ben wel benieuwd naar een terugkerend overzicht welke model nu het meest betrouwbare en gebruiksvriendelijke is in de verschillende toepassingsgebieden.

Voor mij ontbreekt heel het overzicht, maar ik gebruik dan ook Chatgpt eens per kwartaal.
Je kan gemakkelijk een overzicht krijgen van de laatste modellen met scores van users voor verschillende doeleinden op lmarena.ai.
Voor mij is het inmiddels wel de 'goto tool'.
Het is een kwestie van gewenning en ook een beetje gevoel krijgen voor de prompts.
Net zoals dat bij google lang niet altijd het meest betrouwbare antwoord op je vraag bovenaan verschijnt, heeft ChatGPT vaak ook niet een allesomvattend antwoord, of bijvoorbeeld heel oppervlakkig.
Ik zie ook niet alsof AI je werk, google of wat dan ook vervangt, maar als hulpmiddel.
Vanuit dat perspectief is het echt heel waardevol en bespaart het mij effectief echt wel een hele hoop werk.

[Reactie gewijzigd door Levi. op 18 oktober 2024 11:53]

Het hangt er maar net vanaf waar je het voor gebruikt. Over het algemeen is ChatGPT zeer capabel, maar er zijn tegenwoordig modellen die op specifieke gebieden steeds sterker worden. Zo gebruikte ik ChatGPT veel voor het schrijven van Python-scripts, maar sinds ik https://claude.ai/ heb ontdekt, merk ik dat Claude op dat vlak toch duidelijk beter is. Het begrijpt complexere programmeervraagstukken en denkt actiever mee. Bovendien vind ik Claude ook sterker op het gebied van taal, met name bij humor en sarcasme.

De 'goto'-tool kan dus in de loop van de tijd veranderen. Het zou zomaar kunnen dat ChatGPT binnenkort weer een krachtiger model uitbrengt dat Claude overtreft.
Eens. Het zal wel persoonlijke smaak zijn, maar claude is mijn huidige "go-to".

Wel leuk om te merken. Het lijkt een beetje op de zoekmachine oorlog van vroeger, tussen yahoo en altavista en nog wat andere wazige zoekmachines. Totdat er een opstaat die de-facto standaard wordt, maar dat duurt altijd even en is eigenlijk nooit de frontrunner (zoals chatgpt nu is).
Gelukkig zijn er ook mogelijkheden om vanuit één app al die modellen aan te sturen. Dan kun je makkelijk switchen. Ikzelf gebruik bijvoorbeeld Msty en ik zou niet meer zonder willen. OpenAI, Claude en mijn lokale Llama in dezelfde interface.
Ik heb de webpagina als applicatie opgeslagen via de standaard Chromefunctie en op de taakbalk vastgezet. Wat is nu eigenlijk het verschil?
Het ontbreken van diverse functies die de app nog niet heeft tov de browser.
Dat pleit dus tegen het gebruik van een native app. Er is dus geen voordeel, alleen nadelen?
Is dit een native app?
Zelf nog niet gedownload, maar 99% zeker dat dit een Electron gebakje is, of iets soortgelijks, als React Native. Voornamelijk een website in een venster, met hoog geheugengebruik en niet gebruikmakend van de hoge verwerkingssnelheid die je met native applicaties kunt halen.
Dat zelfde doe ik ook maar dan met Edge. Werkt prima en blijkbaar met meer functionaliteit dan nu met de nieuwe native app.
In de app kan je prompts invoeren middels spraak. Daar maak ik dagelijks heel intensief gebruik van om conversaties te voeren. Input gaat daarmee veel sneller dan typen.
Op dit moment heeft het minder functies. Maar binnenkort krijgt hij dezelfde functies als de Mac en Android. Het is dus afwachten totdat het een volwaardige app gaat worden. Mensen met Linux zitten vast aan de webapp versie in Chrome of Edge tenzij je de android versie werkend krijgt in je OS
Interessant dat OpenAI eindelijk een native Windows-app lanceert, maar het voelt toch een beetje als een gemiste kans dat belangrijke functies zoals Voice Mode nog ontbreken in deze vroege versie. Zeker voor een betaalde dienst verwacht je dat ze in elk geval dezelfde functionaliteit bieden als de web- en macOS-versies.

Hopelijk voegen ze die ontbrekende features snel toe, anders blijft het toch een halve oplossing.
Je zegt het zelf al, het is een vroege versie. Die functies komen waarschijnlijk nog, maar later. Het is immers een versie van de app voor betaalde klanten, hoewel het Tweakers artikel het niet benoemd, is de kans wel groot dat dit gewoon een beta of alpha versie is van de uiteindelijke app.
Dan gebruik je toch gewoon de webversie en zet je die vast op je taakbalk oid.
In Windows 11 24H2, wordt CoPilot meegeleverd. Dat draait toch al op de achtergrond in dezelfde ChatGPT engine? Wat zou dan het nu zijn om een eigen app te lanceren in hetzelfde OS wat al een AI toepassing heeft?
Tot zover ik weet is CoPilot een GPT4 model en gebruikt ChatGPT ook een GPT4 model, maar zijn beiden getrained op volledig verschillende brondata.
Inderdaad, ik had al Command and Conquer en toen kwam opeens Starcraft. Ik had toch al gewoon een RTS?
Waarom moet een heel ander bedrijf er dan ook eentje uitbrengen? :+
Voor wie local LLM's wil draaien kan ik Ollama aanraden. Je kan hiermee verschillende open source LLM's draaien. Deze zijn niet zo state of the art als de laatste OpenAI modellen, maar kosten ook niets. Ook belangrijk is dat je heerlijk met verschillende LLM's kan experimenteren (we zijn ten slotte tweakers ;) ). Voor Ollama is ook een goede (local) web ui onder de naam Open WebUI beschikbaar.
En anythingllm is een goede grafische frontend voor ollama taalmodellen waarmee je de modellen ook nog wat kan tweaken.
Ollama is aardig. Tabby is een stuk beter. Heb dat zelf draaien op een 1650 GPU (4 GB VRAM) van NVidia in een desktop met maar een i3 10100F CPU en 16 GB aan RAM.dat is al net zo responsive als ChatGPT is. Minder uitgebreid met de kleinere modellen, maar als je GPU meer VRAM heeft, dan gebruik je al heel snel de uitgebreidere modellen.

En ja, ik spreek over meervoud. Tabby laadt namelijk een LLM model in specifiek voor chat en een ander LLM model voor het genereren van code. Je kan het tevens koppelen aan meerdere Git repositories, zodat je snel code in elkaar kunt zetten in de stijl/vorm van je repositories. Of je koppelt het aan een document (PDF/Word/MarkDown)en Tabby gebruikt dat als context. Code genereren middels een handleiding.

Het draait op Windows, Linux en MacOS, creëert een webinterface voor je zodat 5 gebruikers in je LAN er gelijktijdig gebruik van kunnen maken. En niet alleen gebruik maken van de web-interface, maar je kan het ook rechtstreeks integreren in VSCode, JetBrains IDE's en NeoVim.

Tot aan 5 gebruikers is het helemaal gratis (als je het zelf host). Ollama is leuk en ondersteunt (veel) meer LLMs dan Tabby. Maar aan de andere kant is het voor de meeste personen slomer dan Tabby. En is Ollama niet alleen beschikbaar voor Linux?

Wil je niet aan Ollama beginnen, maar je hebt geen afdoende GPU voor je LLMs? Dan kan ik je ook 'LM Studio' aanbevelen. Gratis beschikbaar op Windows, Linux en MacOS, ondersteunt praktisch net zoveel modellen als Ollama, heeft een heel gemakkelijke interface om nieuwe modellen uit te proberen, heeft een aparte chat-intreface, laat je spelen met heel veel settings als je daar interesse in hebt (voor zowel CPU-only gebruik als CPU + GPU gebruik), kan meer dan 1 model tegelijkertijd laten draaien en kan er ook een server mee opzetten, zodat je deze voor iedereen in je LAN beschikbaar kan maken.

Sindsdien ik Tabby en LM Studio ben tegengekomen, heb ik Ollama maar langs me neergelegd. Niet dat het slechte software is, verre van dat zelfs, maar voor mijn doeleinden voldoen Tabby en LM Studio stukken beter.
Bedankt voor je uitgebreide reaktie! Ik ga Tabby en LM Studio zeker proberen. Ben pas kort geleden begonnen met het verkennen van de (lokale) AI/LLM wereld en was/ben behoorlijk onder de indruk van ollama. (Bij mij draait ollama op een AMD Ryzen 7 7735HS met integrated GPU.)
Persoonlijk gebruik ik zelf www.jan.ai, het wisselen tussen verschillende modellen en het downloaden ervan is erg gemakkelijk.

Zoals iemand hierboven aangeeft ChatGPT is ook niet alles, en er zijn verschillende modellen en applicaties voor verschillende doeleinden die open-source zijn.
Mijn Norton heeft het bestand dat gedownload wordt vanuit de store gelijk opgeruimd ivm onveilig.
Oh oké goed idee lijkt mij alleen vraag ik me af of de spraak en terug praat functie werkt, net als het werkt op de telefoon is.

[Reactie gewijzigd door luckylucas op 18 oktober 2024 09:06]

Als een leek in dit soort zaken ben ik toch vrij verbaast dat een groot project als deze zolang laat wachten op iets logisch als een Windows app.
Het is een vroege versie en helaas is deze nog heel basic. Verwacht dus niet dat deze op je desktop meekijkt en feedback kan geven op je werk, of een voice mode heeft.

Desondanks: top dat ze eraan werken. Ik kan niet wachten op de uiteindelijke versie en verwacht dat dat een nog waardevollere tool gaat worden voor mijn werk dan chatgpt al was (voor schrijven, code- en configuratie-issues).

Op dit item kan niet meer gereageerd worden.