ChatGPT krijgt canvasinterface voor hulp bij programmeren en schrijven

OpenAI introduceert canvas voor ChatGPT. Deze interface opent in een nieuw venster, waardoor gebruikers met de chatbot aan een project kunnen samenwerken. De bèta is beschikbaar voor abonnees van ChatGPT Plus en Team.

In een blogpost schrijft OpenAI dat canvas de gegenereerde content en het chatvenster van ChatGPT opsplitst in twee vensters, net zoals bij Anthropics Claude Artifacts-functie. Hierdoor kunnen gebruikers aanpassingen maken aan tekst of code, zonder dat deze opnieuw gegenereerd hoeft te worden.

Als 'GPT-4o with canvas' is ingeschakeld, kunnen gebruikers delen van tekst of code selecteren om aanpassingen te maken. Canvas toont ook enkele snelkoppelingen, waaronder het wijzigen van de lengte, het leesniveau veranderen, een laatste controle uitvoeren of emoji's toevoegen. Bij het schrijven van code wordt extra functionaliteit zoals het toevoegen van logs en opmerkingen genoemd, net als het fixen van bugs of het vertalen naar een andere programmeertaal.

OpenAI benadrukt dat canvas zich in een vroege bèta bevindt en dat er spoedig verbeteringen worden aangebracht. Abonnees van ChatGPT Plus en Team wereldwijd kunnen er per direct mee aan de slag, gevolgd door ChatGPT Enterprise- en Edu-gebruikers in de loop van volgende week. Als de bèta is afgerond, wordt canvas gratis beschikbaar voor het grote publiek.

OpenAI Canvas

Door Idriz Velghe

Redacteur

04-10-2024 • 10:24

26

Submitter: coldasice

Lees meer

Reacties (26)

26
26
13
0
0
12
Wijzig sortering
Opzich wel handig, maar van een kant heb ik liever niet dat ik aan het werken ben in een online interface en op OpenAI moet vertrouwen dat ze die data ook echt niet gebruiken om hun AI modellen te trainen....

Dit zou je best makkelijk na kunnen maken als extension of aparte lokale software, maar dat is duurder omdat je dan de ChatGPT API zou moeten gebruiken....
Zoals ik het begrepen heb programmeer je niet in ChatGPT maar kan je kleine aanpassingen maken in de output om niet zo alles opnieuw te moeten genereren.

Claude heeft dit al een tijdje en daarin vind ik het prettig dat de code niet tussen de uitleg van de functie staat. Een aanwinst voor ChatGPT als je het mij vraagt.
Ah okay, ik dacht dat het meer een online text editor was met soort "select to GPT" functionaliteit ingebouwd. Dit is al een heel stuk nuttiger
Het is fijn dat als er een klein foutje in staat, het het kunt corrigeren en dat de vervolg prompt dat dan gebruikt.

Anders moet je dat met een prompt + genereer doen of het er uit halen, bewerken en dan weer terug plakken.

Dus zelf even snel een kleine correctie kunnen maken is heel fijn.

[Reactie gewijzigd door djwice op 4 oktober 2024 12:57]

En waarom zou een online interface daarvoor een groter probleem zijn dan de ChatGPT API? In beide gevallen krijgt OpenAI de informatie van je. Onder water zal de online interface ook de API gebruiken.
Het feit dat je volledige tekst die je aan het schrijven bent hier binnen de interface van OpenAI invoert, in plaats van alleen de gedeelten die jij selecteert om op te sturen. Ook dat het alleen online te gebruiken valt ipv offline support.
Ik vermoed dat deze functionaliteit op termijn ook wel in https://docs.openwebui.com/ terecht komt. Dan kun je optioneel alles of een gedeelte zelf hosten.
Wat boeit het nu of je werkt in een "online interface" of niet? Alles wat je stuurt en wat zij genereren hebben ze toch automatisch in handen? Hetzelfde met jouw "extension of aparte lokale software": het moet toch ook naar de OpenAI API?

Ik snap nog minder waarom jouw post de top voted post is 8)7
het ligt iets genuanceerder. Als je alleen een LLM gebruikt in de cloud, maar je Retrieval Augmented Generation (RAG) lokaal of on-prem houdt, dan heeft de LLM provider alleen inzage in de antwoorden op specifieke vragen en niet op de totale collectie van embeddings, e.g. je documenten en andere corporate classified bronnen.
Voor heel veel bedrijven maakt het niet zoveel uit dat bots op die manier getraind worden maar gaat het om het resultaat. Op die manier hopen ze sneller en efficiënter te kunnen werken en producten goedkoper/sneller op te kunnen leveren.
... waardoor gebruikers met de chatbot aan een project kunnen samenwerken.
Het valt te hopen dat gebruikers zich goed realiseren dat men niet samenwerkt met een chatbot, maar een stuk gereedschap gebruikt.
Heb jij geen relatie met je hamer dan? :) Of je schroevendraaier? Die blijven langer heel met een beetje aandacht en liefde. Oliebadjes eens in de zoveel tijd :)

De chatbot moet voelen alsof je met een mens werkt dus noemen we het samenwerken. Zo erg is dat niet.

[Reactie gewijzigd door bzuidgeest op 4 oktober 2024 11:35]

En dat alle info die je geeft wordt geanalyseerd en opgeslagen om later aan de volgende gebruiker te geven.
Dit is volgens mij gewoon goed gestolen van Anthropic. Claude heeft deze functie al wat langer, genaamd Artifacts.
Nu nog de project functie van claude naar GPT.
Ik ben er ook mee aan het spelen. Wat ik al met Claud deed is dummy apps bouwen in react en codesandbox alvorens ik ze koppel aan een back-end. Vaak begin ik dan met een visueel ontwerp en geef AI de opdracht om de react basis op te zetten. Dat werkt met Claude goed, ik krijg meteen de basis bestanden. Dezelfde aanpak werkt met ChatGPT nog niet, ik krijg meteen een foutmelding en daarna een heel simpel react app.js bestandje - bij complexe vraagstukken gaat het dus nog snel mis. Maar goed, het is ook beta :)
Claude heeft dit en dan beter. En sowieso een stuk sneller. En ongekend veel beter resultaat voor programming.
Als je dagelijks code schrijft, is op dit moment GitHub Copilot waarschijnlijk (nog steeds) handiger omdat je de code dan ook direct op kunt slaan/uitvoeren/de tool wijzigingen voor kan stellen in context van andere bestanden in hetzelfde project.
En als overtreffende trap is TabNine weer handiger dan Github CoPilot omdat je met het enterprise abonnement ook je Git repositories kan koppelen en je dus code suggesties over je hele code base krijgt. Ik merk met name een grote verbetering in de voorgestelde coding style. CoPilot schrijft bijvoorbeeld goede en functioneel correcte unit tests voor je code, maar TabNine past in tegenstelling tot CoPilot de coding style van de unit test aan zodat deze matcht met de al bestaande unit tests en de stijl van je ontwikkelteam. TabNine is ook beter in het helpen waar bepaalde functionaliteit verstopt zit, e.g. "in welk bestand vind ik de controller logica van endpoint X" en kan "functionele" (code)suggesties doen over meerdere bestanden. Deze hoef je niet open te hebben in tabs in je IDE.

En voordat de privacy politie langskomt om hierover te zeuren, ja je kunt het model ook op je eigen hardware hosten.
TabNine zie ik (als niet-gebruiker) vooral als een grote tumor op het internet. Als je achtergronden wilt zoeken bij een framework wordt je in google vaak (naast de vele dog-house blogs uit India) doodgegooid met links van codesnippets op de TabNine website. Vaak nog voor de hits uit de documentatie van de library.
Als 'GPT-4o with canvas' is ingeschakeld, kunnen gebruikers delen van tekst of code selecteren om aanpassingen te maken.
(...)
Als de bèta is afgerond, wordt canvas gratis beschikbaar voor het grote publiek.
De gratis versie van ChatGPT gebruikt als ik het goed heb model GPT-4-turbo. Als GPT-4o niet beschikbaar is voor de gratis versie, hoe kan de canvas die dat vereist dan beschikbaar worden? Of wordt met 'voor het grote publiek' een betaalde versie bedoeld? Dat lijkt mij ook gek, want voor ChatGPT Plus is canvas nu al beschikbaar en dat is toch de betaalde versie?

[Reactie gewijzigd door pmeter op 4 oktober 2024 12:39]

De blog is vrij duidelijk er over:
We also plan to make canvas available to all ChatGPT Free users when it’s out of beta.
Gratis gebruikers maken nu al gebruik van GPT-4o (sinds mei)
We are beginning to roll out GPT-4o to ChatGPT Plus and Team users, with availability for Enterprise users coming soon. We are also starting to roll out to ChatGPT Free with usage limits today. Plus users will have a message limit that is up to 5x greater than free users, and Team and Enterprise users will have even higher limits.
Zodra je de limiet bereikt, val je terug op de GTP-4o mini.
Je valt dan toch terug op GTP-3.5?
GPT-4o Mini is vanaf vandaag [Lees 19/07] beschikbaar in ChatGPT voor zowel gratis als betalende gebruikers, met uitzondering van Enterprise-klanten die volgende week aan de beurt zijn. De lancering van GPT-4o Mini is ook het moment voor GPT-3.5 om op pensioen te gaan. Het model is nu al verdwenen uit het ChatGPT-keuzevenster en OpenAI zal ook API-toegang tot GPT-3.5 binnenkort sluiten.
https://itdaily.be/nieuws...gpt-4o-mini-lichtgewicht/
Ik heb zelf enkel de keuze tussen GPT-4o of GPT-4o mini als gratis gebruiker.
Net even uitgeprobeerd, en ik kan er wel aan wennen!
Code wordt netjes inline aangepast, zonder dat hij (visueel) elke keer opnieuw gegenereerd wordt.

Op dit item kan niet meer gereageerd worden.