ChatGPT-gebruikers kunnen gesprekken voortaan onderbrengen in mappen

OpenAI heeft de Projects-functie beschikbaar gemaakt voor ChatGPT. Hiermee kunnen gebruikers hun verschillende chats groeperen in mappen. Ook kunnen ze bestanden uploaden en chatinstructies meegeven die voor alle gesprekken binnen zo'n map gelden.

Gebruikers kunnen in ChatGPT voortaan een map, of 'Project', aanmaken, laat OpenAI zien in een demonstratievideo. Vervolgens kunnen ze nieuwe chatgesprekken beginnen binnen dat Project of bestaande chats naar de desbetreffende map slepen. Naast dat gebruikers hiermee chats over dezelfde onderwerpen kunnen sorteren, kunnen ze ook per Project bestanden uploaden. Deze bestanden kan de chatbot dan inzien tijdens alle volgende gesprekken binnen dat Project.

ChatGPT onthoudt eveneens de chatgeschiedenis van alle gesprekken die zich in een map bevinden. Verder kunnen gebruikers per Project instructies meegeven aan de chatbot, bijvoorbeeld om aan te geven dat de bot zich moet richten op bepaalde onderwerpen of telkens via een vast stramien moet reageren.

Deze functie kan vooralsnog alleen gebruikt worden voor gesprekken die gebruikmaken van het GPT-4o-model. Als gebruikers bestaande chats van zijn opvolger, o1, in een Projects-map slepen, worden die automatisch omgezet in 4o-gesprekken. OpenAI-cpo Kevin Weil laat weten dat het o1-model in de toekomst wel ondersteund zal worden door Projects.

De functie wordt nu uitgerold voor ChatGPT Plus-, Pro- en Teams-abonnees en komt begin volgend jaar beschikbaar voor Enterprise- en Edu-gebruikers. Op een later moment moet Projects beschikbaar komen voor gratis gebruikers. Momenteel werkt de functie alleen voor de Windows-desktopapp, maar in de toekomst moeten de mobiele apps en macOS-versie ook toegang krijgen tot de mappen.

ChatGPT Projects

Door Kevin Krikhaar

Redacteur

14-12-2024 • 12:08

36

Lees meer

Reacties (36)

36
35
17
1
0
18
Wijzig sortering
Was eigenlijk benieuwd of die projects een volledige vervanger voor Notebooklm kunnen zijn. In die zin, dat er niks externs wordt bijgehaald, of gehallucineerd
Opgepast! Hoewel de kans kleiner is dat NotebookLM (of andere RAG-toepassingen) hallucineren, is het niet zo dat ze per definitie NIET hallucineren. De kans is kleiner dan bij ungrounded chatbots, maar nooit 0.
Yup. Veel mensen realiseren zich dat niet. Zie het ook veel te vaak op mijn werk. Mensen die dingen van copilot gewoon ongelezen doorblaffen.

Zelfs Apple had in een van hun system prompts "Don't hallucinate" staan :') Dat heeft helemaal geen zin want het model weet niet dat het hallucineert. Het is gewoon een bijwerking van de manier waarop een LLM werkt.

Ik denk dat op de langere termijn andere soorten AI modellen het 'denken' gaan doen, en de LLM wordt dan alleen nog maar de human interface.

[Reactie gewijzigd door Llopigat op 14 december 2024 14:37]

offtopic:
De ironie! Want “t’ zijn net mensen” wat de wispelturigheid betreft. :)


Ik vind het sowieso nog erg moeilijk dat er te gemakkelijk vanuit wordt gegaan dat iets een waarheid is, maar dat is wel iets van alle tijden.

De les daarin blijft altijd dat we zelf moeten nuanceren en eventueel een eerdere prompt moeten herzien. Een LLM is ook slechts iets dat helpt om je de juiste richting op te sturen. Niet om “waarheden” van aan te nemen. Zie het als een geavanceerde zoekmachine. :)
offtopic:
De ironie! Want “t’ zijn net mensen” wat de wispelturigheid betreft. :)
Ja maar voor technologie hebben we nou eenmaal andere eisen. We hebben technologie juist omdat het geen mensen zijn. Als excel 1 op de 100 berekeningen fout zou maken, zouden we het dan nog gebruiken?
De les daarin blijft altijd dat we zelf moeten nuanceren en eventueel een eerdere prompt moeten herzien. Een LLM is ook slechts iets dat helpt om je de juiste richting op te sturen. Niet om “waarheden” van aan te nemen. Zie het als een geavanceerde zoekmachine. :)
Nee, het is juist geen zoekmachine. Daar is een LLM absoluut niet voor bedoeld.

Het kunnen oprakelen van trainingsdata is een bijwerking van hoe een LLM werkt, maar het is absoluut niet gemaakt om dat accuraat te kunnen doen. Daar is de techniek niet geschikt voor. Een LLM is geweldig in het genereren van tekst maar het is geen orakel. Helaas wordt het zelfs door AI bedrijven die echt wel beter weten voor dit doel aangeprezen, dat is waar.
Hoewel een LLM er niet voor bedoeld is, werkt het wel degelijk vrij goed als zoekmachine. Ik gebruik Perplexity voor heel veel zoekopdrachten die iets minder triviaal zijn. Als ik wil weten hoe oud Ron Brandsteder is gebruik ik een gewone zoekmachine, maar juist bij iets 'vagere' zoekacties is een LLM handig, bv vragen als "Wat is er met de Zuid Koreaanse president aan de hand?" voor als je maar een flard van het nieuws opvangt. Juist omdat Perplexity aan bronvermelding doet, kun je heel goed zelf doorzoeken en de beweringen checken
Ja maar perplexity is geen pure LLM! Die doet live een Google actie en vat vervolgens de resultaten samen. De output is dus niet gebaseerd op het training materiaal en bovendien up to date.

Ik heb hetzelfde met ChatGPT met OpenWebUI die een zoekactie kan doen in mijn lokale SearXNG instance.
Een model kan zeker wel opmerken dat het hallucineert, bijv. Claude heeft dat in de system prompt meegekregen (zie hier).

Ik gebruik zelf Claude vrij intensief en heb daarbij al meerdere keren opgemerkt dat Claude een response eindigt met de opmerking dat het in de response mogelijk heeft gehallucineert. Dat apple dat erin zet is dus niet helemaal gek.

Zelf gebruik ik de API van claude en neem dan de system prompt van Anthropic en bewerk ze specifiek voor mijn gebruik, daarmee verklein ik de kans op hallucineren nog veel meer.
Zeg ik ben heel benieuwd naar nieuwe inovaties / tips / tricks / best use ect zaken binnen chatgpt.

Doordat de tool al even op de markt is en mijn eigen vrije tijd minder is door actief te kunnen zoeken naar nieuwe handige use cases en noem maar op van chatgpt ben ik benieuwd waar ik up to date kan blijven.

hoe blijf jij bij?
Waardevolle functie die op het verlanglijstje van veel gebruikers stond. Voor mij is de toegevoegde waarde van gtp's nu wel minder geworden (door het kunnen aanspreken van geuploade bestanden over meerdere gesprekken). Misschien dat ze de GTP's komend jaar gaan upgraden naar uitgebreidere agents?
Waardevolle functie die op het verlanglijstje van veel gebruikers stond. Voor mij is de toegevoegde waarde van gtp's nu wel minder geworden (door het kunnen aanspreken van geuploade bestanden over meerdere gesprekken). Misschien dat ze de GTP's komend jaar gaan upgraden naar uitgebreidere agents?
Deze stond bij mij stipt op 1! Ik verloor het overzicht en begon uit gemak telkens een nieuwe chat waarbij ik het gevoel kreeg elke keer van voren af aan weer te beginnen.
Je zal zowieso op een gegeven moment een nieuwe chat moeten starten, want na een aantal inputs loop je tegen een limiet aan. Ben al een tijdje op een bepaald onderwerp aan het chatten, en kreeg van de week de limiet en kreeg opmerking dat ik niet verder kon.

[Reactie gewijzigd door init6 op 14 december 2024 16:18]

Je zal zowieso op een gegeven moment een nieuwe chat moeten starten, want na een aantal inputs loop je tegen een limiet aan. Ben al een tijdje op een bepaald onderwerp aan het chatten, en kreeg van de week de limiet en kreeg opmerking dat ik niet verder kon.
Ik wist niet eens dat we een limiet zat op een chat. Weer wat geleerd.

Dat is niet erg, want ik denk dat ik nog lang niet daar bij ben.
Er zit geen limiet op de chat, maar na verloop van tijd weet de chat niet meer hoe het begon. Dat is het limiet op het aantal input tokens. Nu is dat vrij hoog, maar alsnog kun je er tegenaan lopen als de teksten vrij lang zijn.

Je zult dit niet merken als je gewoon "doorpraat" maar wel als je refereert aan iets wat eerder is besproken
Dat werd echt tijd. Werd compleet gek door alle chats. Top dit!
Maar ik kan bijv nog geen chat opslaan bij een pre programmed chatbot zoals: " 365 admin support"

Ik kan die chat niet slepen naar mijn project map, dus ben ik alsnog niet echt geholpen met deze update.
Een verwijzing naar de Projects in Claude (de ChatGPT tegenhanger van Anthropic) is hier welkom. Het is exact hetzelfde met nog eens dezelfde naam ook. Dat werd al eind juni gelanceerd. https://www.anthropic.com/news/projects Het heeft ook wat weg van NotebookLM van Google.

[Reactie gewijzigd door BramVroy op 14 december 2024 13:25]

Super fijn. Ik gebruik ChatGPT voor het voorbereiden van meerdere d&d campagnes and verder ook voor coden voor werk, het is nu vaak echt ongeorganiseerd.

Ik hoop ook dat ze de opslag voor memory een keer verhogen, wat er nu is (10mb geloof ik?..) is echt te weinig, ik moet heel vaak dingen verwijderen en dat maakt het dan weer minder accuraat.
Ik gebruik zelf OpenWebUI als frontend. Zowel voor mijn lokale AI als voor Chat GPT. Anderen zoals Claude kunnen er ook op (als je er meerdere tegelijk wil gebruiken kan je er de tool LiteLLM tussen zetten want OpenWebUI ondersteunt nu maar 1 externe provider tegelijk). Die heeft deze functie al een tijdje. En je kan er ook een heleboel tooltjes voor krijgen die bijvoorbeeld het weer kunnen opzoeken of in je agenda kijken. Kan het heel erg aanraden. Het is veel geavanceerder dan de chatgpt web interface. En hij kan plaatjes maken met DALL-E enzo.

Bovendien is het veel goedkoper als je het niet zo veel gebruikt want je betaalt dan per token. Sommige maanden ben ik 1 a 2 euro kwijt. Komt ook doordat ik mijn eigen lokale llama heb natuurlijk.

Als je het echt ongans veel gebruikt dan ben je met die $20 flat fee natuurlijk wel goedkoper uit. Maar $20 geeft je een hele berg API calls. Sommige modellen zijn ook goedkoper dan anderen.

Het enige dat hij nog niet heeft is de Advanced Voice mode. Maar ik werk zelf vooral met tekst. En TTS en STT zit er wel gewoon in.

[Reactie gewijzigd door Llopigat op 14 december 2024 14:50]

En hij heeft geen automatische opslag van relevante memories.
OpenWebUI heeft dat toch ook niet out of the box? Je moet dan echt een function installeren voor zover ik weet. Maar ik moet er even in duiken.

Een puntje van OpenWebUI is wel dat de documentatie zeer beknopt is. Maar de ontwikkeling gaat ook vreselijk hard. Soms krijg ik meerdere feature updates op dezelfde dag!
Ik weet het niet zeker. Heb em via Pinokio geinstalleerd.
Het heeft wel memories support, maar je kunt ze handmatig toevoegen.
Klopt ja, handmatig zeker, al een half jaar. Het automatische wordt aan gewerkt begreep ik uit hun discord. Met custom functions kan het al geloof ik. Maar ik ben een beetje voorzichtig met het installeren daarvan.

[Reactie gewijzigd door Llopigat op 15 december 2024 19:38]

Waarom o1 niet? Wat is deze logica….? echt onhandig lijkt mij
Zou zeer handig zijn, vooral om een "Misc" folder te hebben met alle onzinnnige shit daarin, zodat ik alle belangrijke info voor hobby's en werk netjes in een map kan hebben.
Hoe kan je chat-gpt knap inzetten voor programmeer taken overigens? Het eea geprobeerd met een esp8266 die een p1 poort / slimme meter moet uitlezen, maar nog geen succes :+
Heb je die vraag al aan CHATGPT gevraagd? :*)
Je kan deze laten integreren met VS code met een extension. Dan kan ChatGPT je helpen programmeren.
Ik gebruik voor programmeer taken vooral Cline, dit is een addon binnen Visual Studio Code. Dit werkt perfect! Je geeft een prompt wat voor taal of ESP module je wilt aanspreken en hij maakt alle bestanden voor je aan + dependencies. Heb al heel wat gave React projecten gemaakt via deze weg. Moet wel toegeven dat ondanks er goedkopere oplossingen zijn en meerdere LLM’s worden ondersteund dat Claude Sonnet 3.5 toch het beste werkt.
Wanneer komt er nu eens eindelijk search in je eigen gesprekken?
Je kunt door al je chats zoeken met de search functie.

Op dit item kan niet meer gereageerd worden.