OpenAI lijkt 42 dollar per maand te willen vragen voor betaalde versie ChatGPT

OpenAI lijkt 42 dollar per maand te willen vragen voor de betaalde versie van ChatGPT. Het was al eerder duidelijk dat er een Pro-versie zou komen, maar sommige gebruikers hebben de optie al kunnen zien op de site en het abonnement kunnen afsluiten.

De optie voor het abonnement verscheen afgelopen weekend op de site van ChatGPT linksonder in de kolom onder de naam 'upgrade your plan', zo blijkt uit een overzicht van Synthedia. Vervolgens werd duidelijk dat OpenAI 42 dollar per maand wil hebben voor de dienst. Sommige gebruikers hebben de dienst kunnen afsluiten en hebben betaald.

De Pro-versie geeft onder meer de garantie om met ChatGPT te kunnen communiceren, ook als het druk is. Bovendien kunnen betalende klanten meer vragen stellen per uur, krijgen ze sneller antwoord en krijgen ze eerder toegang tot nieuwe functies. Een api voor ChatGPT is er nog niet, zoals er voor bijvoorbeeld GPT-3 wel is.

De betaaloptie is intussen weer van de site gehaald en OpenAI heeft verder nog geen details op de site gezet. Het is onbekend waarom de optie weer is verdwenen. Het bedrag van 42 dollar lijkt niet toevallig gekozen, omdat ChatGPT draait om antwoorden geven en 42 in The Hitchhiker's Guide to the Galaxy het antwoord is op het leven, het universum en alles.

Het werd al eerder duidelijk dat OpenAI werkt aan een betaalde versie van ChatGPT. Daarvoor verscheen een formulier online. ChatGPT Pro zou een manier zijn om geld te verdienen met de chatbot, die sinds enige tijd gratis te gebruiken is. OpenAI bracht in november een publieke versie uit van AI-gesprekstool ChatGPT.

ChatGPT over ChatGPT Pro. Zoals wel vaker met de chatbot klinkt het correct, maar is het dat niet.

Door Arnoud Wokke

Redacteur

23-01-2023 • 10:22

177 Linkedin

Submitter: MrWouterNL

Reacties (177)

177
174
121
7
0
34
Wijzig sortering
Wat kan iedereen toch direct klagen over dat het veel kost. Mensen lijken te vergeten wat een hardware hier achter zit om dit voor elkaar te krijgen. Zelfs als je het voor elkaar krijgt om het model in een NVidia V100 te proppen dan is zo'n GPU er nog 290 jaar mee bezig om de "uitkomst" te berekenen. Er zit een enorme lading hardware achter die ergens van betaald moet worden, en dan hebben we het nog niet eens over het onderzoek en de geschreven software die erachter zit. Maar mensen kunnen alleen klagen dat het wel vrij prijzig is.
Ik vind het (zakelijk) niet duur, maar heb wel vragen over het gebruik van mijn input. Stel dat ik broncode met algoritmes deel met ChatGPT of een zakelijke email laat opstellen door ChatGPT, wordt dat dan opgeslagen? Wordt input van zakelijke gebruikers gebruikt voor training van het model? Stel dat ik goede patenteerbare ideeen uitwerk door GPT de juiste vragen te stellen, zal GPT deze informatie dan gebruiken voor de antwoorden voor andere gebruikers? Dat lijkt mij onwenselijk namelijk.
In hun terms of use staat dat ze inderdaad jouw prompts kunnen gebruiken om de model beter te trainen. Er staat ook een link in naar deze post die er verder op in gaat. Ze gebruiken maximaal 200 prompts per gebruiken per half jaar en er is een mogelijkheid voor opt-out door een mail naar hun te sturen.
Dus je betaald eigenlijk om hun model te trainen? Bijzonder.
Zie het maar als een formule: 42e + broncode delen < waarde van gewenste resultaat?

Voor mij persoonlijk is broncode delen helemaal niet erg, dus als ik iets eruit krijg wat meer dan 42 euro is dan ben ik helemaal niet blij
Ik verwacht dat een bepaalde variant van ChatGPT net zulke voorwaarden zal hanteren als bijv. GitHub Copilot (https://github.com/features/copilot). Dus ja jouw input wordt gebruikt voor het trainen van de modellen en verbeteren van de dienst, en nee uitkomsten zoals code snippets en dus e-mails worden niet bewaard en opgeslagen aan de kant van ChatGPT / Copilot.
Ik kan garanderen dat ze je output WEL bewaren, sinds onlangs merkte ik op dat ik links een soort historiek bar zie met al mijn vorige chats en vorige antwoorden(output snippets).
Ik vermoed dat ze dat bewaren zo dat de gebruiker dezelfde queries niet opnieuw moet invoeren (dat bespaard een hoop rekenkracht) Bovendien kan je dan switchen tussen je verschillende chats, die intussen hun eigen context hebben.

Ik weet ook niet of ze de snippets en output ook daadwerkelijk gebruiken voor te trainen, maar het word wel opgeslagen, voor B2B zou dat idd niet mogen gebeuren vanwege confidentiality, dat geld trouwens ook voor persoonsgegeven (bijvoorbeeld als je een bestaande brief vertaald).
Bewaren “ze” de output of bewaar “je” de output? Een bestandje op je computer met wat historie is natuurlijk wel wat anders dan je codebase op hun servers opslaan.
Nee ik zie de historiek op al mijn devices. Het moet dus zeker op hun server ergens zijn
Uiteraard, wel zo handig dat je historie bewaard blijft. Dat wil nog niet zeggen dat jouw historie eventueel wordt verwerkt in de toekomstige antwoorden van het taalmodel

[Reactie gewijzigd door dezwarteziel op 27 januari 2023 04:42]

Nee maar dat wil zeggen dat je antwoorden eventueel er wel voor gebruikt kunnen worden, of dat je vragen en antwoorden per ongeluk gelekt of gehackt kunnen worden. Steek je voor dat je wil dat chatgpt je helpt om een medisch document te vertellen naar jouw taal... Of je upload productie code om er fouten in te vinden..etc..

Van het moment dat iets kan gebeuren, moet je er van uitgaan dat het vroeg of laat zal gebeuren. Tenzij je liever de struisvogel techniek toepast (kop in de grond) en er van uit gaat dat er niets mis zal gebeuren met je input of output...
Ik kreeg laatst de melding:"You can access your old chats again since we recovered them", in ieder geval iets in die trant op een andere computer. Dus zeker geen lokale files.
Ik verwacht dat een bepaalde variant van ChatGPT net zulke voorwaarden zal hanteren als bijv. GitHub Copilot (https://github.com/features/copilot). Dus ja jouw input wordt gebruikt voor het trainen van de modellen en verbeteren van de dienst, en nee uitkomsten zoals code snippets en dus e-mails worden niet bewaard en opgeslagen aan de kant van ChatGPT / Copilot.
Jouw eigen code wordt bij Copilot niet bewaard als je de zakelijke versie gebruikt, of als individuele gebruiker niet hebt aangevinkt dat ze die code mogen gebruiken. Jouw interacties met Copilot zoals het wel/niet accepteren van suggesties en bepaalde metadata wordt wel bewaard.

Voor het scenario waar je op reageert: Als jij een zakelijk abonnement hebt op Copilot en daar een algoritme mee deelt, dan zal deze niet worden bewaard of ingekeken door Microsoft, Github of OpenAI. Zie hier: https://github.com/featur...vacy-copilot-for-business
Het is vrij veilig uitgangspunt dat lals je data genereert waar iemand anders mee kan verdienen, die data door iemand gebruikt wordt om geld mee te verdienen.
Zelfs als je het voor elkaar krijgt om het model in een NVidia V100 te proppen dan is zo'n GPU er nog 290 jaar mee bezig om de "uitkomst" te berekenen.
Het trainen duurt zo lang, niet om een antwoord geven.
even if
we are able to fit the model in a single GPU (e.g., by swapping pa-
rameters between host and device memory [38 ]), the high number
of compute operations required can result in unrealistically long
training times (e.g., training GPT-3 with 175 billion parameters [11 ]
would require approximately 288 years with a single V100 NVIDIA
GPU)
En dat heeft ook geen tijd, moeite en geld gekost?
Dat heeft het zeker, en het is niet gek dat OpenAI dat meeneemt in hun prijsstelling.

De reactie van @lukjah was meer een verduidelijking, want met "uitkomst" zoals jij het schreef zullen mensen eerder denken aan "antwoord" dan aan het resultaat van het trainen van het model. :)
Dat heeft ongeveer een miljoen dollar gekost aan GPU. Gezien de waardering van OpenAI ($29 miljard) zijn de trainingskosten van dit model te verwaarlozen. Alleen, dit is alleen maar het uiteindelijke model. We weten niet hoeveel modellen ze hiervoor getraind hebben. Dat zouden er 10 kunnen zijn, of 1000.
Er zijn zoveel subscription based services die veel meer kosten dan wat OpenAI gekost heeft... ik denk maar even aan Spotify, Netflix, Creative Adobe, games, ...

Ik vind het een duur speelgoedje, ik vind het wel lollig, maar in huidige staat nog niet echt bruikbaar. Wat ik wel zie is dat de technology / model voldoende sterk is dat het bruikbaar zal zijn in bepaalde aspecten, en mogelijks ons hele manier van leven/werken zal aanpassen op korte termijn.
Vele goed mee eigenlijk, je moet het gewoon op de juiste hardware genereren (gpu's).
Gpt 4 gaat trouwens veel sneller builden en nog veel sneller iets terugvinden in het netwerk.

[Reactie gewijzigd door sebastienbo op 24 januari 2023 01:33]

Dus je moet er 3456 een maandje laten draaien. Lijkt me haalbaar zeker met de miljarden die MS er in gepompt heeft.
Maar dan ga jij er vanuit dat 'wat iets kost om te maken' relevant is voor mensen om een inschatting te maken van wat het voor hen waard is. Ik heb veel respect voor dingen die heel moeilijk te maken zijn, maar of ik het veel geld is voor wat ik eruit haal staat daar helemaal los van.

Zo vind ik een abonnement op Adobe Photoshop ook duur. Niet omdat ik denk dat dit geen goede reflectie is van hoeveel werk in de productie en onderhoud van de applicatie zit, maar omdat ik het bij wijze van spreken 1 uur per kwartaal gebruik om een vierkantje aan een plaatje toe te voegen.

Dus als iemand dan vraagt waarom ik geen Photoshop gebruik, dan zeg ik: Ik vind het te duur.
Wat probeer je nu eigenlijk te zeggen? Een derde auto vind ik ook te duur, ik heb er maar twee nodig. Klopt, logisch natuurlijk.

Feit blijft dat veel mensen struikelen over een verkoopprijs voor iets wat ze gratis hebben kunnen gebruiken. Natuurlijk zijn er extra functies aan toegevoegd, maar deze technologie moet ergens van betaald worden. Vind je het te duur omdat je het niet vaak genoeg gebruikt en je de investering niet terugkrijgt? Prima toch?
Feit blijft dat veel mensen struikelen over een verkoopprijs voor iets wat ze gratis hebben kunnen gebruiken
ChatGPT was alleen gratis omdat het een open beta testfase was en niet een volledig gratis uitgegeven product, en hier is OpenAI vrij duidelijk is geweest, dus als mensen denken dat ze het na de test ook nog gratis horen te krijjgen hebben ze het aardig mis
Exact on die reden heb ik de affinity suite gekocht. Kostte me iets van 60 voor een Lifetime licence.
ja, tot dat hun ook besluiten dat lifetime licenties niet meer life time zijn :o
https://linustechtips.com...-users-lifetime-licenses/
vroeger had je levenslange garantie op een product maar dat ging om de levensduur van het product zelf.
Iets met zolang je abonnement loopt of zolang je contract loopt kan al verschillen.
ja, maar een programma zal altijd blijven werken als het op de zelfde systemen gedraaid word, waar een mechanisch apparaat kapot kan gaan. de computer waarop software draait kan kapot, maar de software zelf niet, if that makes sense
Nu je het zegt, inderdaad had filmora een lifetime licence waar ze zich niet aan gehouden hebben. Werd ook geconfronteerd met het bijbetalen voor de upgrade naar v12. Braaf gedaan omdat ik lifetime vergeten was.

Maar kreeg deze week een email met een sorry en dat upgraders hun geld terug kunnen krijgen. Zal niks veranderen voor de toekomst denk ik, maar voor nu even is 'lifetime' weer van toepassing. :)
Jouw logica gaat dus ook niet op. Moeten dingen dan maar goedkoper worden, alleen omdat je ze weinig gebruikt?

Je kan niet zeggen dat iets te duur is omdat je het zelf maar weinig zou gebruiken - dan ben je simpelweg geen onderdeel van de doelgroep. Net zoals je zelf al zegt met Photoshop, als je het één keer per kwartaal gaat gebruiken dan heeft het geen zin om een abonnement op Photoshop te gaan afsluiten. Maar is dat een reden om Photoshop te duur te noemen? Nee.
Nee dat zegt hij niet.
Hij zegt dat het verdienmodel van Adobe niet past bij zijn gebruik.

Vroeger kon je Photoshop eenmalig kopen, dan dan 10 jaar gebruiken. Nu zit je vast aan een maandelijks abonnement waarbij je continue betaald ook al gebruik je niet. Je zou het pakket eigenlijk kortstondig moeten kunnen activeren, bvb een tientje om het als consument een week te kunnen gebruiken.
Dat kan toch ook? Alleen betaal je per maand.
Dus als jij het 1x per 3 maanden nodig hebt, dan kun je gewoon 1x betalen op het moment (de maand) dat je het nodig hebt. Kost je alleen meer administratie. Denk dat het uiteindelijk nog wel eens goedkoper kan zijn dan in de tijd dat je het product kocht en elke 2-3 jaar overstapte naar een nieuwe versie omdat de oude versie niet op je nieuwe windows werkte.

Ik doe het ook op die manier met streamingdiensten.

[Reactie gewijzigd door SunnieNL op 23 januari 2023 11:24]

Adobe maakt het zo ingewikkeld dat er online stappenplannen zijn om een opzegging te doen (waarbij je in sommige gevallen zelfs boetes moet aftikken). Op die manier schrik je de 'weekje abonnement' gebruikers wel flink af.

Als je weinig eisen stelt kan je beter een alternatieve tool gebruiken (Affinity kost weinig en er is zelfs voor niks veel goede open source software te vinden)
Iets waar streaming diensten ook mee (zouden moeten) worstelen. Hoe laag moet de prijs zijn om piraterij tegen te werken.

Ik heb een prima alternatief waar zo goed als alles op staat, en toch betaal ik 12 euro per maand voor netflix (dat was ooit 7 euro). Amazon prime heb ik er ook bij, en wat je er daar in verhouding allemaal bij krijgt maakt het video's streamen zo goed als gratis, maar het aanbod is beperkt.

Maar veel diensten bij elkaar is duur en dan grijpen mensen naar (relatief goede) gratis alternatieven.

Voor een incidenteel 'photoshop' klusje zoals genoemd in de eerste reactie kun je denk ik prima uit de voeten met andere software, en gratis alternatieven zoals Paint.net.

Het zou Adobe echter sieren als ze bijvoorbeeld een 'dagabonnement/24 uur' aanbieden voor laat zeggen 1 of 2 euro. Maar het minimale is 1 maand, welke ook nog eens flink aan de prijs is ($31,50 bij adobe).
Streaming diensten kun je ook voor een maand nemen, of desnoods een trialperiode regelen om al je series en films te bingen. Dan is de prijs te overzien. Maar voor een photoshop klusje waar je misschien een uurtje aan moet werken 30 euro neer te leggen is gekkenwerk.

Doe je het zakelijk, dan is het prima te verhalen op de klant. Maar voor privégebruik is het gewoon niet te doen.

Ik kan mij niet voorstellen dat het zoveel moeilijker zou zijn om een daglicentie te beheren tegenover een maand of jaarlicentie. Of er in een database nou staat dat de gebruikte licentie gekoppeld aan XXX@XXX.com eindigt op 24-01-2023 om 11:30 of op 24-02-2023. Maar je haalt er potentieel wel meer betalende gebruikers mee binnen.

Of als ik het verkeerd zie, waarom zou het niet werken? Op een 'erotische website' werken die dagpasjes ook prima. Heb ik van een vriend gehoord... (al ligt dat vast ook meer aan de gratis alternatieven, die je in het geval van bijv. photoshop niet écht hebt).
Het werd gebracht als ‘betalen naar gebruik’ maar op zo’n manier in het vat gegoten, dat de gemiddelde gebruiker alsnog (flink) duurder uit is.

Als het echt betalen naar gebruik zou zijn, zou je gewoon per gebruikte tijd kunnen gebruiken.

Afijn, dit zie je in andere varianten in feite ook bij bijvoorbeeld Netflix: Ja, je kan kiezen welke resolutie je wil zien, maar kies je 4K (wat iedereen wil want alle nieuwe tv’s zijn 4K) dan moet je een abonnement voor vier schermen nemen. Ook al heb je er maar één.
Dat heet price discrimination en is een veelgebruikte methode om de volledige potentiele klantengroep aan te spreken met een bedrag dat het voor hen waard is ja.

Denk aan studentenkortingen, lite versies, zakelijke licenties, combinatiekortingen, etc.
Ben je bekend met de huidige prijsstelling van de API? Daar heb je het over centen per 1000 tokens. Ik had vorige week uitgerekend dat je voor 50 euro zo'n 500.000 tokens kan kopen, en er dus 20.000 per dag moet gebruiken.

Een token is 4 tekens, voor tekst komt 1000 tokens op ongeveer 750 woorden, dus 20.000 per dag is heel erg veel. Als je de output dan zelf nog moet controleren en aanpassen, want ChatGPT is verre van perfect, kost het moeite om dat te halen.

Nog los van het feit dat ik met een abo lagere kosten verwacht, geen hogere. 30.000 tokens per dag en iedere (werk)dat gebruiken is in mijn ogen niet realistisch.

Voor de duidelijkheid, bij mijn berekening ging ik uit van het gepersonaliseerde systeem, wat je dus zelf kunt trainen. Dat systeem is veel duurder (terecht) dan het ongetrainde model, wat de prijs nog veel meer te hoog maakt.

Typisch voorbeeldje van vragen wat je kunt vragen in plaats van wat het kost.
En daar zijn *heel* goedkope oplossingen voor beschikbaar. Bv. Rendertoken biedt nu al ondersteuning voor Stable Diffusion, dan heb je voor een appel en een ei plots duizenden high-end GPUs beschikbaar.
Totdat er een AI komt die andere AI's kan trainen. (er kunnen dan bepaalde nadelen geminimaliseerd worden)
Incorrect, die 290 (288) jaar waar je het over hebt is alleen training. Dat is al gebeurt en hoeft dus niet overnieuw gedaan te worden voor iedere aanvraag. Het geld voor de training moet natuurlijk terugverdient worden, maar met een al bestaand de uitkomst berekenen kan makkelijk op een high end moderne GPU.

maarja, 42 euro voor iets waar meen 5 jaar geleden nog nauwelijks van te durfde dromen? ik zou zeggen dat dat heel goedkoop is.
“Maar informatie wil vrij zijn.”
De informatie die ChatGPT heeft is ook vrij, daarom weet ChatGPT het juist.

Het wordt alleen op een andere manier gepresenteerd.
De informatie die ChatGPT heeft is ook vrij
Dat valt nog te bezien. De eerste rechtszaken over het gebruik van informatie door een AI model zijn er al.

Gek genoeg blijkt dat mensen met auteursrechten op de gebruikte bronnen wel eens een andere mening hebben over de legaliteit van dit gebruik.
Iedereen kan een rechtzaak aanspannen. De rechtbank kijkt in eerste instantie alleen of de ingediende papieren ergens op slaan. Is de gedaagde duidelijk aangeduid? Wordt er een bestaand wetsartikel geciteerd?

Dan heb je dus nog niet eens de check gehad of je wel bij de goede rechtbank bent, laat staan of de geciteerde wet uberhaupt van toepassing is. Dat soort argumenten moet namelijk door de advocaat van de aangeklaagde partij worden opgevored.

Het is logisch dat Getty een FUD campagne start, hun bestaansrecht eindigt met Stable Diffusion. Hun probleem echter is dat de wet alles toestaat wat niet expliciet verboden is. AI training is nieuw, en (nog) niet expliciet verboden.
Vandaar ook "het valt nog te bezien" :)

Er zijn in feite 2 dingen onduidelijk.

Ten eerste, de huidige wetgeving is niet gemaakt voor dit specifieke geval. Alle analogieën met bestaande gevallen die je kunt trekken gaan wel ergens mis. Het wordt dus afwachten hoe de rechters dit gaan interpreteren. En dat kan per jurisdictie ook nog gigantisch verschillen.

Ten tweede, dit gaat waarschijnlijk nieuwe wetgeving opleveren. Dat kan goed of slecht uitpakken, voor beide partijen.

En dat gaat dus allemaal gevolgen hebben voor het antwoord op de vraag "hoe vrij is informatie eigenlijk?"
Rechters mogen niet zoveel interpreteren. De klager moet specifiek aangeven welke actie verboden wordt door welke wet. En het staat als een paal boven water dat het auteursrecht geen verbod heeft op het trainen van een AI.

Het auteursrecht is nu net één van die wetten die niet gigantisch per jurisdictie verschilt. De Berne conventie uit 1886 startte de synchronisatie al. TRIPS uit 1995 voegde computerprogramma's toe, dus er is duidelijk jurisprudentie dat je voor nieuwe soorten activiteiten nieuwe verdragen nodig hebt. Dat kan een rechter niet voor AI, dat moeten regeringen doen. En tot die tijd vallen AI's dus onder dezelfde bescherming als parfums.
Parfums mogen ook alle informatie leren?

Ik begrijp je vergelijk niet helemaal. Leg eens uit?
Parfum recepten vallen ook niet onder copyright (of patenten). En omdat de wet alles toestaat wat niet verboden is, mag je parfums dus kopiëren. Dat is ook gebeurd, aangevochten, en toegestaan. Uit die jurisprudentie blijkt dat de rechter het toepassingsgebied van copyright niet mag oprekken. Dus ook voor AI mogen toekomstige rechters het auteursrecht niet oprekken. Dat is aan de politiek, en kan niet met terugwerkende kracht.
Dat klinkt meer alsof ik de code die de AI gebruikt mag kopieren, niet dat de AI auteursrechtelijk beschermde werken mag kopieren...

Maar de twijfelgevallen zitten natuurlijk bij de werken die door een AI zijn geproduceerd en duidelijk 'geinspireerd' zijn door auteursrechtelijk beschermde werken. De mate waarin een AI afgeleide werken kan maken, of alleen bestaande werken kan kopieren en combineren, zal wel een rol gaan spelen in de afwegingen, gok ik.

Maar gelukkig gokken rechters niet.
Ik wwet niet hoeveel jij van AI weet - de software code die een AI gebruikt is vaak Open Source (bijvoorbeeld TensorFlow). Dat is niet zo spannend, dat zijn wat matrix operaties en niet-lineaire activatiefuncties. Daar gaat het dus ook niet over.

En "geïnspireerd door" hebben we genoeg jurisprudentie over; dat is al eeuwen gebruikelijk. De "Hollandsche School" in de 17e eeuw was al een voorbeeld ver voordat het moderne auteursrecht opkwam; inspiratie is dus vanaf het begin vanzelfsprekend en geen grond voor rechtzaken.

Wat de zaak verder compliceert is dat twee AI's met dezelfde training niet dezelfde resultaten produceren - er is echt zoiets als identiteit. Het is dus geen triviale transformatie van de bestaande werken.
Maar de AI hebben ook geen eigen stijl in hun kunst. (tot nu toe)
Er wordt ze opgedragen een werk te produceren, soms in een stijl, maar de onderdelen die ze verwerken zijn, soms inclusief shutterstock watermerken, af en toe herkenbaar, en slechts minimaal bewerkt. Onderdelen die toegepast zijn in een nieuwe werk, als een soort knipselkrant.

Denk dat rechters daar nog wel even over kunnen piekeren, mocht er ooit echt een zaak van gemaakt worden. Volgens mij heeft nog niemand het echt zover durven laten komen?

En dat dezelfde AI twee keer met dezelfde prompt geconfronteerd ook niet twee keer met hezelfde resultaat komt, is ook wel interessant. Je hoeft er niet eens twee verschillende AIs voor te nemen.
Dat suggereert dan weer wel dat het unieke werken zouden zijn.

Het is interessante materie, en ik ben blij geen rechter te zijn :)
dat ging over AI art, die stijlen van bepaalde artiesten meenemen in hun training en daardoor het auteursrecht van de artiesten schend. en moet nog werkelijk voor de rechter komen, dus we gaan zine wat er gaat gebeuren, wie weet zegt de rechter wel dat het wel mag.. je weet het maar nooit me de rechtbank in de VS
"Stijl" is simpelweg niet beschermd in het auteursrecht. Of het nu Jazz of Bauhaus of Pointilisme is, iedereen mag kunst in een bepaalde stijl maken.
de uitvoering van een bepaalde artiest is wat ik bedoelde, en die uitvoering kan zijn stijl genoemd worden, al begrijp ik de verwarring heb het niet goed verwoord. je kan inderdaad geen grootte overkoepelde ideeën beschermen, maar wel de preciese uitvoering.
Correct - en de AI heeft weer zijn eigen precieze uitvoering. Dus daarmee red je het ook niet.

De ellende hier is dat je probeert een stijlbegrip precies zo breed te definieren dat AI's er wél onder vallen, maar andere menselijke artiesten niet. Dat gaat anno 2023 niet meer.
De informatie die ChatGPT heeft is ook vrij, daarom weet ChatGPT het juist.
en dat is ook gelijk de bottleneck. Als bedrijf wil je misschien wel zo'n model in huis hebben draaien tegen al je documenten, maar zonder de ruis van wazige blogjes. Of als dienstverlener misschien tegen een hele specifieke database. Denk b.v. een Elsevier, die het algoritme zou kunnen gebruiken voor het ontsluiten van wetenschappelijke publicaties op een bepaald gebied.

[Reactie gewijzigd door divvid op 23 januari 2023 11:55]

"Het algoritme" ? ChatGPT is geen bijzonder algoritme; het is gewoon een transformer-based Large Language Model. Wat het bijzonder maakt is de trainingsset.
de trainingset en de hoeveel heid paramters die gebruikt word voor het werklijk training met de data in de set. je kan nog zo'n goede set hebben maar als je er maar op een paar punten op traint schiet het nog niet op
De data is vrij. De informatie is wat ChatGPT ermee doet, en die kost dus $42 per maand.
Nee, ChatGPT interpreteert geen data, en creeert dus ook geen informatie. Het schuift het handig bij elkaar, of leuk leesbaar.

Maar ChatGPT gaat niet uit verschillende bronnen data bij elkaar verzamelen om dan zelf een conclusie er uit te trekken.

Je kan ChatGPT wel je eigen conclusie laten toevoegen in leuk leesbaar formaat, bijvoorbeeld.
Ik denk dat het ook zomaar te maken kan hebben met de 10 miljard deal met Microsoft.
Ofwel: Microsoft komst straks met een licentie van 35 euro ofzo per maand, en lijkt dan goedkoop, maar dat is wel gekoppeld aan Microsoft producten.
42 dollar vind ik wel aardig aan de prijs. Ik zal het vast los kunnen peuteren bij mijn werkgever. ChatGPT heeft zich al meermaals bewezen als handige tool tijdens het werk. Het klopt niet altijd exact, maar het duwt je al wel in een goede richting. Maar goed, ik denk dat er thuisgebruikers zijn die het ook wel graag zouden willen gebruiken en om het dan factoren duurder te maken dan bijvoorbeeld een Disney+ of Netflix account ... dat is net even te veel van het goede.
Ik vermoed dat het een placeholderbedrag is, zoals gesteld een knipoog naar THHGTTG.

Wellicht is het uiteindelijke bedrag lager.

Zelf zou ik het er wel voor over hebben als er ook een API aan gekoppeld zou zijn; voor een dergelijk laag bedrag een volledig beheerde AI-chat in je app kunnen opnemen is spotgoedkoop.
Ik veronderstel dat de free versie gewoon beschikbaar blijft voor "thuisgebruikers". Allicht zal ze nog wel wat meer gelimiteerd worden qua aantal usage limits maar of dat echt boeit voor die doelgroep..

Kan me niet voorstellen dat je voor privé gebruik voortdurend vragen hebt om te stellen aan ChatGPT.
Mwah, voor een paar dingen nu proberen te gebruiken. Voornamelijk programmeerklusjes.

Voor de Arduino werkt dat best behoorlijk, evenals PHP. Maar Autolisp (automatisering van AutoCAD producten) gaat regelmatig de fout in, of werkt eigenlijk gewoon helemaal niet.

In die zin moet je het wel gebruiken als hulpmiddel en er niet op vertrouwen dat welke gegevens het uitspuugt ook in 1x goed is.

Als ik de AI corrigeer of wijs op een fout is het elke keer 'Nee, inderdaad, je hebt gelijk dat dit of dat niet kan want *reden waarom het inderdaad niet werkt in dit geval*'. Tja, als je dat na correctie van de gebruiker als conclusie hebt had je dat de eerste keer ook wel goed kunnen doen.

Voornamelijk het vergeten van de juiste hoeveelheid (en locatie) van de 'brackets' ( () ) schijnt een probleem te zijn in het geval van mijn probeersels met AutoLISP.

Maar goed, het systeem zal wel iets meer vragen (studiemateriaal) krijgen over Arduino en PHP tegenover scripts voor een programma als AutoCAD.

Als vraagstukken met bijvoorbeeld een maximum van 5x reacties per uur gratis blijven werkt dat voor mij goed zat. Mits het systeem niet de heletijd gecorrigeerd moet worden door de gebruiker, want dan is het net als interrupties bij een debat in de 2e kamer, 5x dezelfde vraag moeten stellen en 5x niet het gewenste antwoord krijgen en vervolgens niks meer kunnen vragen.
Wel ja maar dat is dus al zeer atypisch privégebruik. Jij hoort bij die 0,001% die thuis dit soort zaken zit te doen als hobby.

De gemiddelde mens vraagt al nauwelijks regelmatig iets aan Siri of zo, laat staan technische uitleg aan ChatGPT.

Denk dat je die tweaker bril toch echt wel moet afzetten om een beetje objectief te kunnen kijken naar de toegevoegde waarde voor platformen zoals dit voor jan modaal thuis.

Vals spelen bij huiswerk is nog het meest realistische scenario dat ik vanuit dat perspectief kan bedenken :)
Tja, er is heel veel ontwikkeld waar 'Jan modaal' thuis niet zoveel aan heeft. Maar dan had ik net zo goed op nu.nl kunnen gaan reageren :+.

In het kader van het overgaan naar een betaalde dienst met een gratis variant is het in het geval van een beperking voor gratis gebruik voor die Jan modaal voldoende als je er sporadisch een enkele vraag aan kan stellen. Even een boekverslag typen of je wiskunde huiswerk laten invullen zal naast het genoemde hobby werk (want inderdaad, dat beetje programeerwerk wat ik doe is voornamelijk voor mijzelf) wel een beetje de hoofdmoot van het thuisgebruik zijn, en dat zou prima kunnen op een (tijd/aantal vragen) beperkte variant.

[Reactie gewijzigd door BLACKfm op 24 januari 2023 08:55]

I agree, en ik begrijp je punt hoor.

Het stoort me enkel hoe men over ChatGPT te werk gaat in bijvoorbeeld het Belgische TV nieuws. Men gooit met termen als AI.. zonder eigenlijk echt duidelijk te maken dat dit geen AI is zoals jan modaal die "kent" (denk aan skynet, the matrix agents al die toestanden). Ik voel bij sommige mensen in mijn omgeving al de angst dat het zover is en ze allemaal binnen de maand op straat staan omwille van deze AI.

Wat natuurlijk onzin is. Daarom dat ik ook graag , zelfs op tweakers sites, een beetje meer nuance zie omtrent de reëele toepassingen van dit verhaal .
Op het niveau van dagelijkse nieuws 'Wij weten er ook niks van, maar de techniek gaat hard', om dan vervolgens de Henk en Ingrids van deze wereld te vragen of ze moeten vrezen voor hun baan is lekker makkelijk scoren.

De term 'AI' wordt al heel lang geroepen, een mooi modewoord voor een automatisch proces van voornamelijk 'if else' statements. Die nagenoeg net zo 'slim' zijn als de zoek-/filterfunctie van de Pricewatch van Tweakers. Verre van het niveau van deepfakes of AI gegenereerde afbeeldingen, welke overigens nog meer van het niveau 'leuk' zijn dan echt on point, zoals ook met ChatGPT die genoeg steken laat vallen op de zaken die er echt toe doen.

Uiteraard zal er wel een keer een tijd komen dat we lachen om deze woorden, maar voor het zover is worden wij wel begraven door robots die ook alleen dat maar goed kunnen en dan nog loopt er iemand naast die de boel in de gaten moet houden...
Het is nu nog voornamelijk een 'means to an end', een stuk gereedschap.
Agreed, again ;-)

Maar je merkt wel duidelijk dat dit echt niet zo gezien wordt door vele leken. Op sites als reddit zie je vaak de grootste paranoide en pseudo technische onzin voorbij komen terwijl de weinig mensen die er wel een realistische kijk op na houden of kennis omtrent hebben gewoon weggevote worden.

Gelukkig zijn ze hier nog wel wat nuchterder, de meesten toch.
42 dollar per maand voor een goed werkende servicebot is een schijntje. Zèlfs als die maar 1 klant tegelijk kan afhandelen en je dus meerdere licenties moet afnemen wegen de kosten al heel snel op tegen de baten.
ChatGPT werkt niet altijd goed en zal zelf geen klanten kunnen afhandelen zonder supervisie en correctie.
Uiteraard, net zoals een reguliere chatbot dat momenteel niet kan. De combinatie van de twee is nu net waar de kracht in zit, het gaat niet zo zeer om het formuleren van antwoorden, maar meer om een correcte interpretatie van de vraag die gesteld word. Het antwoord kan (of eigenlijk: moet) vervolgens een predetermined antwoord zijn. Als dat antwoord er niet is: assign aan chat/phone-agent of creeer ticket.
Thuisgebruikers hebben een Pro-versie dan denk ik ook niet echt nodig en kunnen prima uit de voeten met de gratis versie ;)
Momenteel zeker niet, daar is de service niet betrouwbaar genoeg voor. Dat je af en toe moet wachten is niet het probleem. Dat je gewoon een "network error" krijgt, of een half antwoord (etc.) waarna je je opnieuw moet authentiseren naar het systeem lijkt me een brug te ver voor de meeste consumenten.

[Reactie gewijzigd door uiltje op 23 januari 2023 11:56]

Het is een abonnement voor zakelijk gebruik, vergelijken met prive producten is denk ik niet eerlijk.
haha man soms doet het exact het tegenovergestelde.
Als je niet minstens half weet waar je mee bezig ben kan AI ernstige problemen veroorzaken.
bv zoals ik recent op dit forum melding maakte van een AI die een scrip on alle niet draaiende images van docker te purgen.
- Stop alle containers
- Wis alles dat gestopt is. (ALLES DUS want alles is gestopt)

Dus je moet echt wel goed blijven opletten.

Maar dingen als. Hier is wat json maak ff een python class voor me. TOP!
En wordt alleen maar beter natuurlijk.
Ik zit nu Copilot te testen, van github. Is wel ok.. alleen de standaard shortcuts voor dat ding.. |:(
Flink prijzig, vooral omdat je nu nog na moet gaan of de antwoorden die ChatGPT geeft wel kloppen / werken.

Maar het is te begrijpen als je weet wat voor hardware er achter zit. De training alleen al schijnt op 10.000 Nvidia GPU's te zijn gedaan,
Toch andersom rekenen, hoeveel uur werk bespaart de tool je per maand. Dan is de 42,- waarschijnlijk snel eruit.
Inderdaad, ik vind dat de gemiddeld klager over de prijs van 42 dollar echt niet verder kijkt dan zijn neus lang is. Met uurtarieven die op veel plekken tussen de 80-120 euro per uur liggen tegenwoordig moet ChatGTP je 30 minuten per maand (!!) besparen om er al uit te kunnen. Dat is peanuts.
Mij hoor je niet klagen over een paar tientjes kosten, maar ik vraag me wel af waar dit toe gaat leiden.

Als allerlei professionals langzaam maar zeker compleet afhankelijk worden van een online tool in het buitenland heeft dat niet alleen maar voordelen.
Op welke manier zie jij dit anders zijn dan afhankelijkheid van google voor je werkzaamheden? Ik zou er in mijn werk ook niet zonder kunnen namelijk.
Ten eerste kunnen ik en de meeste mensen hun werk nog prima doen zonder Google en daarnaast zijn er andere zoekmachines. Of bedoel je de andere Google clouddiensten? Die zijn ook populair maar niet onvervangbaar.
Beide. Voor beide is het zo dat je er veel gebruik van maakt (iig in mijn functie zowel van google als van bijv google sheets) maar er wel alternatieven zijn. Maar dat is ook het geval voor ChatGTP. Daarom dat ik niet veel problemen zie in "compleet afhankelijk worden van een online tool". Dat ben je al van google (of ander zoekmachines) en dat zullen we ongetwijfeld voor een deel ook worden van ChatGTP (of andere ai tools)
Ik zie hier meer potentieel gevaar in, omdat je veel meer prijsgeeft van waar je mee bezig bent. De beheerder van deze app weet hele stukken code, waar je naar op zoek bent, doel van onderzoeken etc. Veel beter dan bij gewoon zoekwerk.

Daarnaast kun je er op wachten dat er zaken mis gaan in de zin van.. Welke uitgangspunten neem het systeem voor zover je die niet aangegeven hebt? Hier komt geheid gedoe van.
Misschien, maar het zou best wel een dingetje kunnen zijn bij mijn baas om even 42 dollar p. m. te vragen.
Dat hangt natuurlijk erg van je baan af. Als stratenmaker heb je hier weinig aan. Maar anderzijds zijn er hier genoeg mensen die een eigen tekenbevoegdheid hebben die daar ruim boven ligt. Als je personeel in dienst hebt met die uurtarieven van 80-120 euro, dan wil je als baas niet lastig gevallen worden over 42 dollar. Professionals op dat nivo moet je kunnen vertrouwen.
Bij mijn vorige baan had ik een creditcard, bij de vorige had ik 3 handtekeningen (en mijn eigen handtekening) nodig om 1 boek te bestellen. De huidige werkgever is ook wat krenterig maar ligt er ergens tussenin vermoed ik.
Precies, voor de 42dollar per maand zou je ook een grote kostenbesparing kunnen opleveren. Bijvoorbeeld het schrijven van vacatures is een fluitje van een cent, je geeft wat parameters mee de rest gaan vanzelf. idem voor Motivatiebrieven, stappenplannen etc etc.
Ik gebruik het in mijn consultancy diensten. Iets waar ik eerder 2 uur mee bezig was, doe ik nu in 10 minuten. En nu betaalt de klant mij voor mijn kennis en ervaring, juist door dit in te zetten verhoog ik mijn efficiëntie en productiviteit en dat betaalt zich goed uit.
Ik gebruik het in mijn consultancy diensten. Iets waar ik eerder 2 uur mee bezig was, doe ik nu in 10 minuten. En nu betaalt de klant mij voor mijn kennis en ervaring.
Jouw kennis ligt nu in het juist stellen van de vraag aan ChatGPT. En wat jouw ervaring ermee te maken heeft, dat weet ik niet, maar het antwoord komt van ChatGPT en de bronnen die het heeft gebruikt. Maar vooral dus niet van jou.

Dus als ik iemand anders/goedkoper vind die (toevallig) ook dezelfde vraag aan ChatGPT kan stellen, dan zal het antwoord echt niet anders zijn, omdat jouw eigen kennis/kunde/ervaring dus niets met ChatGPT te maken heeft.

Je stelling dat je klant betaald voor jouw kennis en kunde, die klopt dus voor geen meter. Maar als dat verkooppraatje voor jou werkt, dan betekent dat eerder dat je clientele (nog) niet beter weet.
Dan snap je niet wat ondernemen is ;) Men betaalt mij zeer goed voor mijn kennis en ervaring. Als zij een policy willen hebben, dan kan ik of iets zelf schrijven, of het aan ChatGPT vragen en het zelf aanpassen. Liever vanuit een template werken om tijd te besparen. Klanten weten dit overigens en betalen mij gerust nog steeds 150 euro per uur.
Bereken je nu ook tien minuten werk in plaats van die 2 uur cq 92% minder voor dat deel van je werk? :+
Nee. Zou natuurlijk raar zijn. Ik reken ook niet de tijd mee dat ik me heb moeten inlezen in de klant, hun industrie, etc. En zolang zij het weten, is er niets aan de hand.

Men vergeet dat dit de toekomst is. Waarom het zelf verzinnen als het eenvoudig gegenereerd kan worden en ik het zeer snel kan aanpassen zodat het klopt?
Dat voelt een beetje alsof je aan het dropshippen bent :+ .
Ja wat ik bedoel is dat het niet direct bruikbaar is, dus het is nog niet evident dat je er nu al geld mee bespaart door het te gebruiken, of dat het geld kost. Bijvoorbeeld omdat er bugs in je code wordt geintroduceerd als je niet alles goed naloopt. De kosten van een bug kunnen catastrofaal zijn.
Ik denk ook dat het spotgoedkoop is zeker als versie 4 op de markt komt.

B2B API’s kosten vaak handen vol geld. Soms belachelijk veel. €42 is klein geld, er zal heus wel een duurdere versie komen dus ik hoop dat ze de pricing aanhouden.

Afhankelijk wat je job is kan op termijn echt wel veel tijd besparen. Ik gebruik het nu een paar uur per week.

Nu:
- copywriting, vertalingen
- generen alternatieve copywriting
- boodschap schrijven nieuwsbrief,
- korte/duidelijke verklaringen geven
- snelle API calls testen, code vragen en debuggen, leren hoe je een bepaalde library gebruikt etc.

Toekomst:
- samenvatting blog artikel schrijven (tldr)
- productomschrijving geven
- kapstok maken voor artikel (opdeling, hoofdpunten)
-verklarende woordenlijst maken
- snel 10 varianten op bestaande slogan genereren,
- Verwerken in websites, apps, marketing en sales-doeleinden etc.

Tot hiertoe gebruik ik het als extra. Ik lees alles nog na, schrap en herschijf. Maar de inspiratie is echt top en in de toekomst denk ik dat de API mee kan draaien in productie.

[Reactie gewijzigd door Coolstart op 23 januari 2023 12:09]

Dat is inderdaad hoe bedrijven tegenwoordig hun prijs bepalen, op wat ze kunnen vragen, niet op basis van wat het kost + een beetje winst.

Kijk eens naar de prijzen van de API, voor €42 moet je het de hele dag en iedere dag gebruiken.
Dat houdt ook niet op, het doel van het ding is niet om correcte antwoorden op te hoesten. Het doel van het ding is om geloofwaardig tegen je te liegen. Die missie is al geslaagd gezien hele volksstammen het nu al op het woord willen geloven uit pure gemakzucht.
Ik vrees dat je gelijk gaat krijgen. Dit gaat de nieuwe versie van "Computer says no" en "Het staat op Facebook" worden. Zelf denken niet meer nodig.
Je moet daarom ook altijd GPT zijn antwoord laten voorzien van bronvermeldingen met datum/tijd van publicatie. Dan kun je in ieder geval een inschatting maken of de gebruikte bronnen autoritair en/of actueel genoeg zijn.
Het doel van het ding is tekst genereren op basis van algemeen beschikbare kennis, meer niet. Je kunt hem daarbij sturen in toon, hoeveelheid en inhoud. Dat hij daarnaast een soort default heeft die de ongeveer de gemiddelde mening is van iets is fijn omdat je dan minder hoeft te sturen.
Het doel is om te liegen? Kom op zeg, dat geloof je toch zelf niet hoop ik.

Het doel is om vragen de beantwoorden, waarbij een antwoord geven belangrijker is dat het juiste antwoord te geven, dat is nogal een fundamenteel verschil. (verre van perfect, daar niet van)

Maargoed, het is een krachtig hulpmiddel, maar je moet daarna de antwoorden controleren en aanpassen, wat de bespaarde tijd in mijn ervaring halveert. Alsnog significant, maar meer dan 10 of 20 per maand ga ik hiervoor niet betalen, zeker niet als de gratis versie blijft bestaan.

Het voordeel dat het sneller is gaat voor ons in Europa nauwelijks op, alleen tijdens de uren dat ze in Amerika wakker zijn merk ik dat het systeem overbelast raakt. 's ochtendsvroeg heb ik dat nog nooit meegemaakt.
In dat geval is jouw doel waarschijnlijk om alles te overdrijven.
Uiteraard. Het wordt een verlengstuk van ministeries of truth. Anders zal openAI gestaft worden voor bad behavior. Net als EU aan Musk mededeelde van de week in Davos. Wetenschap is sinds paar jaar ook steeds meer wiskunde aan het worden, met harde onbetwistbare antwoorden.
Ik betaal, of ja mijn werkgever, betaald 65 euro voor mijn IDE (jetbrains) per maand. Ik vind het niet z'n gek bedrag. Als het een werknemer 5% productiever maakt is die 42 dollar het al waard per maand.

Als je uit gaat van modaal inkomen verdiend een werknemer 17.54 per uur, laten we zeggen met alle kosten er bij dat het een werkgever 25 euro per uur kost. 25 * 40 = 1000 euro per week, 5% productiever kun je ook zien als 50 euro per week. Dan heb je de 42 dollar er in een week al uit :)
Het ligt een beetje aan het doel. Tijdens de WAN Show (LTT) lieten ze ChatGPT ze de nodige teksten schrijven, op zo'n niveau dat dit werkelijk bruikbaar was.
Natuurlijk moet de informate gecontroleerd worden, maar als je al weet wat het is, en het gaat puur om de tekst schrijven, dan scheelt dit een hoop werk.

Zo heb ik wel meer dingen gezien, dat met wat aanpassing heel goed te gebruiken is.

Antwoorden zijn absoluut lastig omdat het zo overtuigd onzin geeft als antwoord, dat het nog te onbetrouwbaar is, maar gebruik je het voor andere doeleinden, dan zijn er echt wel mooie toepassingen.
Behalve programmeurs en hele slechte reporters: wie gebruikt dit nu voor zijn werk??

Vermoedelijk moet ik de potentie er van nog ontdekken, maar voorlopig lijkt het me vooral 'leuk omdat het kan'.
Een heleboel mensen in mijn netwerk !
Voor bijvoorbeeld teksten schrijven/blogs maken etc. Werven van informatie.
Om websites actueel te houden.
actueel lijkt me moeilijk aangezien de chatbot beperkt is in info tot 2021...
Maar als je uw teksten laat schrijven door een bot... bedrieg je uzelf en uw publiek dan niet enorm.
Je past het uiteraard zelf aan, maar het kan je goed op weg helpen !
Goed verstand gaat voor uiteraard.
Een heleboel mensen in mijn netwerk !
Voor bijvoorbeeld teksten schrijven/blogs maken etc.
En jij denkt dat mensen in de toekomst al die gegenereerde blogs ook gaan lezen?
Ik bedoel, waarom zou je uberhaupt nog naar iemands blog gaan als je aan je computer kunt vragen om speciaal voor jou een blog te maken over een willekeurig onderwerp?
Die heleboel mensen in jouw netwerk krijgen straks concurentie en dus niet van andere 'content' creators, maar direct van de consument die die hele blogschrijvers straks niet meer nodig heeft.
Ik zie duidelijk dat je de volledige potentie nog niet kent ;) Lees je eens in. Er zijn tientallen beroepen die hier al direct van profiteren.
ja bon, ik ik had een deftige referentie verwacht nu...
Meeste wat ik lees is bullshit over studenten die hun 'taken' laten doen door chatGPT.
Misschien moet ik het eens vragen aan ChatGPT zelf :-)
vraag:
welke beroepen kunnen profiteren van chatgpt en hoe dan?
chatGPT:
Veel beroepen kunnen profiteren van ChatGPT, zoals:

Klantenservice: ChatGPT kan worden gebruikt om automatisch antwoorden te geven op veelgestelde vragen van klanten, waardoor de klantenservice-agenten meer tijd hebben om zich te concentreren op complexere vragen.

Inhoudscreatie: ChatGPT kan worden gebruikt om snel en efficiënt teksten te schrijven, zoals blogposts, artikelen, enz.

Vertaling: ChatGPT kan worden gebruikt om teksten automatisch te vertalen naar een andere taal.

Business Intelligence: ChatGPT kan worden gebruikt om gegevens te analyseren en samenvattingen te maken, waardoor beslissingen sneller genomen kunnen worden.

Reclame: ChatGPT kan worden gebruikt om automatisch korte teksten te schrijven voor advertenties, zoals social media posts, enz.

Het is belangrijk om te weten dat de toepassingen van ChatGPT nog steeds in ontwikkeling zijn en er nog veel meer mogelijkheden zijn.

[Reactie gewijzigd door telenut op 23 januari 2023 11:00]

Ik heb de optie gekregen afgelopen vrijdag zaterdag om pro abbonement af te sluiten voor iets van 42 dollar per maand. En heb dat direct gedaan.

Beste en goedkoopste hulp die ik ooit heb gekregen. Gebruik het voor product beschrijving, samenvatting maken, vertalingen maken en om dingen te leren.

Dit is echt het geld meer en meer dan waard. En wordt alleen nog maar beter omdat ze het model steeds verder aan het verbeteren zijn.

[Reactie gewijzigd door dutchruler op 23 januari 2023 19:52]

Krijg je sneller antwoorden met de Pro versie? En wellicht ook andere?
Het valt me op dat het veel sneller is.

ik zie soms nog wel de melding "We're experiencing exceptionally high demand. Please hang tight as we work on scaling our systems."

maar ik merk er niet zo veel van. Het lijkt ook wel of het minstens 5x sneller typt
Daarnaast krijg ik niet steeds de melding meer dat ik te veel vragen heb gesteld binnen een uur en ook network error lijkt minder, alhoewel ik die wel een paar keer heb gekregen.
Ben benieuwd wat dit gaat doen met de bedrijven die al commerciële producten aanbieden en verkopen die gebruik maken van ChatGPT.
De meeste werken op de OpenAI API welke momenteel nog niet Chat GPT heeft, de OpenAI API's hebben al een betaald model (en is niet heel duur). Dus verwacht niet dat er veel veranderd.
42 in The Hitchhiker's Guide to the Galaxy het antwoord is op de ultieme vraag over het leven, het universum en alles.

Voor mij is het te duur, voor bedrijven is dit natuurlijk prima te betalen. Ik denk ook niet dat een abonnement voor mij relevant is.

[Reactie gewijzigd door MoonRaven op 23 januari 2023 10:46]

Wat mij betreft wordt het €42 (of $42) per opdracht... of per jaar... of zo iets.

Als je het boek hebt gelezen (of via storytel of zo hebt beluisterd :o ) dan weet je dat er ook heel veel computer tijd zit in het bepalen van het antwoord. :+ En nog een keer zo veel tijd in het bepalen van de bijgaande vraag... }>

"How manny roads must a man walk down, before you call him a man?" (https://en.wikipedia.org/wiki/Blowin%27_in_the_Wind -> Legacy)

[Reactie gewijzigd door beerse op 23 januari 2023 11:41]

Juist, ik hoop dat het artikel nog aangepast gaat worden op de misquote.
De eerste keer dat ik GPT3 zag riep ik onmiddelijk dat ik bereid was er voor te betalen. GPT3 geeft je een inschatting van de kosten en mijn inschatting was dat ik met met 1 a 2 euro in de maand wel toe zou kunnen. Ik ga er wel van uit dat mijn gebruik nog wel verder gaat toenemen maar dat zien we dan wel. Voorlopig heb ik nog wat over op mijn welkomstkrediet maar als dat op is ben ik helemaal bereid om een paar cent per vraag te betalen. Voorlopig in ieder geval. (Google kan hier alleen maar van dromen, per zoekopdracht aftikken).

Maar een starttarief van 42 euro per maand voor ChatGPT vind ik wat te fors, dat voelt mijn gebruik van GhatGPT niet waard (los van dat ik geen idee heb wat de kosten zijn).
Als ik af en toe een tientje zou kunnen storten deed ik dat onmiddellijk maar 42 euro per maand is geen impulsaankoop meer. Misschien als ik het heel intensief zou gebruiken, maar niet voor af en toe.

Het is misschien totaal oneerlijk maar in mijn hoofd vergelijk ik de prijs met andere abonnementen zoals netflix of mijn telefoonabonnement. Mijn telefoon gebruik ik dagelijks en kost minder. Ik weet het, het is niet fair en willekeurig. Als je het vergelijkt met wat je per maand voor een huis of een auto betaald is 42 euro weer peanuts. Maar die vergelijking maakt mijn gevoel niet.;

Zakelijk gezien ligt het misschien anders. Als je 1 uur werktijd per maand kan besparen met ChatGPT dan is het al snel de moeite waard en ik denk dat heel wat beroepen er flink van kunnen profiteren.
Voor professionals die uren werk besparen lijkt het mij een koopje.

https://www.linkedin.com/...utm_medium=member_desktop
Ik wilde er ooit aan beginnen met Chatgpt, maar waarom er een mobiel nummer nodig is voor een account? Kon ook nergens achterhalen wat er met deze gegevens gebeuren en hoe ze worden opgeslagen.
Anti-spam/misbruik en ik gok wellicht nog iets van export restricties.
10 euro per maand zou ze meer geld opleveren. Want afname zou dan zeer waarschijnlijk meer dan 4,2 keer hoger zijn. Echter zouden er dermate veel op professional zitten dat ze met de huidge middelen ook weer po maximum capaciteit komen op die tier. Tevens filter je op deze manier een beetje de wangebruikers er uit die het alleen maar proberen te laten schelden en dergelijke.

Ik denk dat ik het wel ga betalen, maar dan idd wel voor zakelijk gebruik.
Aan een hogere afname zitten natuurlijk ook fors hogere kosten vast dus het doel is niet om zoveel mogelijk betalende gebruikers te krijgen.
Dat is precies wat ik bedoelde te zeggen inderdaad :)


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee