'Prijs ChatGPT Plus wordt over vijf jaar verhoogd tot 44 dollar per maand'

OpenAI wil de prijs van ChatGPT Plus tegen eind 2024 verhogen met twee dollar per maand. Dat schrijft The Wall Street Journal. Over vijf jaar zou de prijs op 44 dollar per maand komen te liggen. Het bedrijf houdt een investeringsronde waarmee 7 miljard dollar moet worden opgehaald.

Als dit bedrag effectief wordt opgehaald, zal OpenAI volgens The New York Times ongeveer 150 miljard dollar waard zijn. De Amerikaanse zakenkrant kon enkele documenten bekijken met daarin financiële details van de organisatie. Uit de documenten blijkt dat OpenAI in augustus van dit jaar een maandelijkse omzet van ongeveer 300 miljoen dollar kon realiseren en dat de jaaromzet van dit jaar op 3,7 miljard dollar zal komen te liggen. In 2025 moet die naar verluidt ongeveer 11,6 miljard dollar bedragen en tegen 2029 zou de jaaromzet van OpenAI naar ongeveer 100 miljard dollar zijn gestegen.

OpenAI zou dit jaar vijf miljard dollar aan kosten maken. Deze kosten zijn onder andere de loonkosten van werknemers, de huur van kantoorgebouwen en andere kosten die verbonden zijn aan de bedrijfsactiviteiten. De energiekosten zouden ook een groot aandeel vormen. Er wordt verder niet in detail getreden over de mogelijk toegenomen kosten. De New York Times schrijft wel dat de kosten van OpenAI zullen blijven toenemen naarmate het aantal gebruikers stijgt.

Uit de documenten blijkt verder dat het AI-onderzoeksbedrijf momenteel op ongeveer 10 miljoen betalende abonnees kan rekenen. Die betalen 20 dollar per maand. Er zouden ook ongeveer een miljoen betalende ontwikkelaars zijn die de diensten van OpenAI in eigen producten of software gebruiken. Uit eerdere berichtgeving van The Wall Street Journal blijkt dat OpenAI plannen heeft om een bedrijf met winstoogmerk te worden. De ChatGPT-maker begon in 2015 als non-profitorganisatie, met als doel om geavanceerde AI te ontwikkelen ten behoeve van de mensheid.

Door Jay Stout

Redacteur

28-09-2024 • 09:55

200

Lees meer

Reacties (200)

200
189
63
7
0
92
Wijzig sortering
Voor dit soort bedragen blijft het voor bedrijven wel interessant om een eigen LLM te draaien (waar je ook nog eens meer controle over hebt) en het zal ook concurrenten blijven helpen om marktaandeel te verkrijgen.

Ik denk dat OpenAI e.d. zichzelf wel een beetje overschatten in hoe belangrijk specifiek zij zijn in een markt als deze. Voor dit soort bedragen krijg je veel meer concurrenten. Verder zal de open source community ook niet stil zitten, maar die moeten nog wat verder uitontwikkelen. Ze lopen daar gewoon nog even achter op OpenAI, maar dat is meer een kwestie van tijd. We zien verder dat AI op veel plekken wordt geïntroduceerd, maar dat de adoptie nog vrij tegenvalt, omdat de toegevoegde waarde gewoon nog niet zo hoog is. Ja, voor programmeren of wat tekstverwerken is het handig, maar daarbuiten weet het toch nog niet echt indruk te maken. Voor smartphones is het vooralsnog een gimmick en veel werkzaamheden laten zich nog niet echt automatiseren of werkt AI voorlopig nog niet betrouwbaar genoeg om op te vertrouwen.

Het is fijn dat ze een toekomstvisie hebben, maar zoals zoveel bedrijven denk ik dat ze zichzelf wel wat overschatten. In zowel wat de consument en bedrijven voor dit soort tools overhebben alsook in vergelijking met de concurrentie. Ze hebben zichzelf heel knap als marktleider opgesteld, maar niet elke marktleider in een beginnende sector eindigt als marktleider in een volwassen sector. Google was ook niet de eerste zoekmachine bv.
Een server met een dikke GPU en ollama erop :P
De energiekosten van een eigen server zijn al hoger dan 44euro per maand (nog los van de aanschaf en beheer).
528 USD per gebruiker per jaar voor een dienst.

En het ding is, zo'n dikke GPU heb je niet eens nodig. Voor de grotere modellen wel, maar als je al uit de voeten kan met kleinere modellen, dan is een product zoals 'Tabby' van TabbyML toch el erg interessant. Hun software (voor Linux, Windows en MacOS) genereert een server die 2 kleinere modellen (1 voor chat, een ander voor codering) in VRAM plaatst. Het creeert ook een web-interface welke door iedereen in je LAN benadert kan worden.

Je kan deze software ook aan je code-repositories koppelen, zodat deze worden ge-indexed en je codering LLM snel code in jouw stijl genereert. Ook kan je deze linken in VSCode, zodat je tabby rechtstreeks kan benaderen.

Je kan deze software dus on-prem draaien. Of in een hybride/cloud-omgeving naar keuze.

Tot aan 5 gebruikers is de software geheel gratis, tot aan 200 gebruikers moet je 20 USD per maand per gebruiker aftikken, daarboven moet je met hun sales-omgeving gaan praten. Ben een gebruiker, geen (weder)verkoper van het product.

Hardware:
Eerst had ik het draaien op een computer met een A10 APU van AMD (Bulldozer tijdperk, maar 'opgefrist' voor gebruik in de AM4 socket), 16 GB aan RAM en een Geforce 1650 met 4 GByte aan VRAM. En dat is een grafische kaart die geeneens met extra stroomaansluitingen is uitgerust.

Qua responstijden deed zelfs die oude hardware niet onder voor de responstijden van ChatGPT. Kwaliteit van de antwoorden was niet echt slechter dan die van ChatGPT, wel korter. Niet veel korter in de meeste gevallen.

Maar goed, deze kan je dus onbeperkt vragen stellen. Terwijl je bij ChatGPT wel degelijk met limieten te maken hebt, ook als je ervoor betaalt. En het komt ook voor dat hun service voor (korte) periodes onbereikbaar is. Ook als je betaalt.

Sinds een week draait deze opstelling nu op een i3 10100F CPU met 32 GByte aan RAM en dezelfde videokaart. Nu zitten er continue zo'n 5 personen gekoppeld aan die AI en zij zien geen verschil in snelheid waarmee tabby antwoorden/code genereert, ook al zijn ze er alle 5 tegelijkertijd mee bezig.

Een machientje van zo'n 500 USD voldoet dus al. Minder dan wat je per jaar betaalt aan abonnementskosten voor 1 persoon. Voor thuisgebruik en kleine bedrijfjes dus heel goed te doen. Qua extra beheerskosten zal 1 extra computer voor puur AI niet de kosten zijn. En het zal aan de lokale energieprijs liggen of de aanschaf/beheerskosten en energieverbruik in 1 jaar-abonnement van OpenAI gaat passen.

Natuurlijk, meer (lokale) hardware resources is beter voor betere/uitgebreidere LLMs in VRAM. En zelfs dat is te verantwoorden als OpenAI 44 USD per maand per gebruiker gaat vragen. Je zal echter behoorlijk onder de indruk zijn van wat Tabby nu op dit moment al voor elkaar krijgt op een "schamel" computertje, ook als daar maar een GF1650 in zit.

OpenAI overschat zich behoorlijk wanneer zij hun abonnementsprijzen omhoog gaan stuwen.
Tja, als jij tevreden bent met de antwoorden van een model bestaande uit een paar miljard parameters, is een ChatGPT plus abonnement inderdaad nogal overkill.
Ik heb een server cluster voor 150k met 10GPU over 5 nodes en daarmee serveer je gemakkelijk 2,000 mensen mee die allemaal AI/ML gebruiken voor zowel training als gebruik voor oa segmentatie van medische beelden. Zelfs met energiekosten komen we op minder dan 100 euro per jaar per persoon. LLM hebben sterk minder nodig, met Ollama en een deftige 24-core Xeon, voor embedding heb je geen GPU nodig en kun je ook een duizend persoon mee doen.
Ja maar met een server kan je meerdere gebruikers bedienen. En je hebt voordelen zoals privacy en de mogelijkheid uncensored modellen te draaien zodat je niet de preutse Amerikaanse moraal wordt opgedrongen.

Het is misschien wat duurder en minder capabel maar het komt dicht in de buurt (zoiets als llama loopt iets van een jaar achter op GPT, meer niet).en deze voordelen zijn ook veel waard.
Overigens, in vijf jaar zullen we denk ik wel efficiëntere gespecialiseerde hardware hebben. Al weet ik niet of dit ook voor consumenten beschikbaar komt. Maar waarschijnlijk komt het in al onze smartphones, laptops, etcetera. Net als video decoders.
Ze hebben evident geleerd van vroegere startups door in een heel snel stadium al samenwerkingen op te zoeken met hele grote spelers wat vrees ik al snel zal leiden tot steeds meer voorsprong.

Microsoft is een van de belangrijke partners: https://blogs.microsoft.c...dopenaiextendpartnership/

En via Microsoft zijn ze al binnen bij een van de grootste spelers op het gebied van EHR.
https://blogs.microsoft.c...trys-most-pressing-needs/

Ik zie niet zo snel de open source wereld ze van dit soort bewegingen afhouden.

De adoptie binnen de geneeskunde is al volop gaande en in laatste fasen van testen. Dat men daar nog niet van gehoord heeft klopt. Ze willen absoluut niet dat er fouten insluipen dus alles wordt grondig getest, maar de keuze in welk AI systeem dat gaat doen is allang en breed gemaakt.

Enkel zullen nog wat kleine projecten blijven draaien met 'narrow AI' op eigen modellen verwacht ik.
Voor dit soort bedragen blijft het voor bedrijven wel interessant om een eigen LLM te draaien (waar je ook nog eens meer controle over hebt) en het zal ook concurrenten blijven helpen om marktaandeel te verkrijgen.
OpenAI ligt nu al onder de loep van parlementen wereldwijd. Het is voor hun absoluut onwenselijk om concurrenten op prijs uit de markt te drukken. Deze strategie is dus juist veilig. Ze kunnen tegen waakhoden zeggen: "Kijk, concurrenten kunnen zelf een business case uitrekenen in de wetenschap wat onze prijzen zijn. En de drempel tot toetreding is praktisch nihil, want iedereen kan een eigen LLM draaien. Concurrentie op prijs en kwaliteit is dus goed mogelijk".
Ze hebben een goed product in handen, dat weten ze zelf ook heel goed. En als ze eenmaal geld ruiken.. Dat non-profit labeltje heb ik dan ook nooit echt geloofd. Wat mij overigens meer tegen staat zijn de duizenden AI startups die niet meer zijn dan een ChatGPT wrapper met vooraf ingestelde prompts.
Non profit is niet hetzelfe als gratis.
Quick money, dat zijn de verkopers van deze wereld...
Er is nog maar weinig “open” van OpenAI overgebleven…
OpenAI betekent niet open inzage of open source. Open betekent meer dat het voor iedereen te gebruiken is.
Ik denk dat Mazewing doelt op het feit dat alle modellen vanaf GPT-3 commercieel en proprietary zijn geworden. Transparantie en openheid over AI-ontwikkelingen vanuit OpenAI zijn hierdoor in het geding geraakt door proprietary software, commerciële druk en stakeholders zoals Microsoft.

Hoewel het bedrijf naar buiten toe aangeeft ontwikkelingen en onderzoek openlijk te delen en zoveel mogelijk samen te werken, is dit in de praktijk lastig te realiseren. Dit is een bijproduct van de keuzes die het bedrijf heeft gemaakt lijkt me.
Is dit de nieuwe grote bubbel?

150 Miljard waarde welke alleen gebaseerd is op hoop voor de toekomst en op geen enkele manier de huidige waarde vertegenwoordigd.

Dit jaar 3,7 Miljard omzet maar 5 Miljard verlies draaien, oftewel kosten die fors hoger liggen dan 5 Miljard (foutje in Tweakers artikel) . Maar er wordt 213% groei in de omzet verwacht komend jaar, waarbij ze niet vertellen wat de te verwachten kosten hiervoor zijn. En binnen 5 jaar zelfs een omzet groei van 2600% denken te realiseren.

Zelfs bij een verdubbeling van de prijs is het nog maar afwachten of er ooit winst gemaakt gaat worden.
Het is zeker gedeeltelijk een bubbel. Als je op LinkedIn kijkt zie je bergen en bergen aan AI of 'chatgpt' experts. (En heel veel die geen studie in informatica of AI hebben gedaan, heel gek).

Aan de andere kant bieden LLM's e.d. zeker een toegevoegde waarde voor velen. Zo kan je, als je het goed inzet, zeker processen versnellen of je een goede (of verkeerde) richting opduwen bij problemen.

De vraag is meer, zijn dit soort netwerken nog relevant over 5 jaar? Het veld van AI kan rap bewegen, en als er morgen een nieuw paper uitkomt met een betere techniek is chatGPT gepasseerd en irrelevant.
Natuurlijk hebben ze toegevoegde waarde, en natuurlijk is de markt groot en groeiende, en natuurlijk zijn er mensen die nu al veel voordeel hebben van het gebruik van AI. Maar het is nog onduidelijk hoe groot de markt wordt, hoeveel winst de markt op kan leveren. En dat nog los van wie over bijvoorbeeld 10 jaar de grote spelers in de markt zijn. Leuk al die groei en voorspellingen en beweringen van hoeveel honderden Miljarden de AI markt nu al waard zou zijn, maar voorlopig vliegen de miljarden de deur uit en is het nog de grote vraag hoe dit te kapitaliseren.
Ben benieuwd waar ze over 5 jaar staan.
Kinderen die nu geboren worden kunnen als ze twaalf zijn met chatgpt achtigen met een paar commandos waarschijnlijk betere software ontwikkelen dat een gemiddeld team nu kan.
Vertalers en tekschrijvers hebben het nu al zwaar door ai, sofware schrijvers zullen de volgende wel zijn, en daarna?
Bij OpenAI zijn ze natuurlijk van mening dat ze nog maar 20% van het potentieel waargemaakt hebben, en dat er nog 80% moet komen. Of beter: dat is natuurlijk het verhaal wat ze aan hun investeerders vertellen. Maar wat als de huidige toestand eerder 80% van het LLM potentieel benadert, en er nog maar 20% onontgonnen is? Dan is de enige manier om nog drastisch betere resultaten te krijgen, een radicaal andere aanpak. Doet OpenAI voldoende fundamenteel onderzoek om zelf naar zo'n radicaal nieuwe aanpak te zoeken? Of hopen ze dat ze voldoende investeringsgeld zullen hebben om die ideeën over te nemen c.q. in te kopen vanuit innoverende startups? Benieuwd hoe ze daar intern mee omgaan.
Getraind met data van alle mensen,dus dit zou gratis moeten blijven of ze moeten ons betalen.
Hoe vaak ik niet boze mails heb gehad over "de chatgpt zei dat ik dit zo moest doen in Krita, maar het werkt niet, dat is een bug!!!"" -- een echte time-drain.

Deze bubbel mag wat mij betreft gisteren uiteenspatten.
En wat krijg je er voor? Een verijdelde google database die doet alsof het intelligent is. Je gaat dus betalen voor de term AI die hier grandioos misplaatst is.

[Reactie gewijzigd door Marctraider op 28 september 2024 10:02]

Als je het als zoekmachine gebruikt is het inderdaad niet het geld waard. Maar het kan veel meer. Probeer eens teksten te laten reviewen, code debuggen of schrijven en je bespaart snel veel tijd. Ook (gestructureerd) samenvatten kan het erg goed.

Oefenen met prompts en je ziet dat het veel meer is dan zoekmachine
De code die eruit komt is me moeite code te noemen. Dat is geen productie code. Onlangs nog een getest, op de tijd dat het duurde voor er iets bruikbaars uitkwam had ik het al lang zelf gedaan en een pak beter. De code is echt niet productie klaar hoor. Debuggen ... simpele dingen, de iets wat complexere zaken lukt gewoon niet. Veel tijd besparen ? Zelfs de autocomplete van een triviaal lijntje zit er regelmatig naast.

[Reactie gewijzigd door cricque op 28 september 2024 15:51]

Probeer hetzelfde eens voor een taal of een library waar je zelf nog weinig ervaring mee hebt en probeer daarbij vragen te stellen over wat er geproduceerd wordt, de taalconstructies, best practices, etc.
Je krijgt zo veel sneller inzicht in voor wat voor jouw specifieke taak relevante kennis is dan wanneer je dat zelf via web searches en documentatie lezen zou moeten uitvissen.

Voor de code zelf is het aan te raden om in fases te werken: Eerst beginnen op specificatie- en vervolgens design-niveau te overleggen over hoe e.e.a. in elkaar zou moeten zitten, dan de implementatie in pseudocode (/code comments) uit te werken, en vervolgens pas code te genereren. Dit is sowieso hoe je software engineering zou moeten aanpakken, maar het werkt voor AI assistants ook een stuk beter dan met een vage halve vraag te beginnen en direct een bak productieklare code te verwachten.

Je zult vooralsnog altijd kritisch naar de gegenereerde code moeten kijken en dingen moeten tweaken, maar mits goed gebruikt is het een enorm goed en tijdsbesparend hulpmiddel.
Als ik met een nieuwe taal begin, dan probeer ik eerst gewoon even een paar simpele dingetjes uit en bekijk ik wat hier en daar, hoe doen ze dit, hoe doen ze dat. En dan pas ik mijn +25 jaar ervaring toe. Ik ga echt wel geen pseudo code meer schrijven, commentaar sorry, maar geef alles een goeie naam en dat is ook overbodig. Tevens waar halen ze de code op ? Op github, ik heb al dikwijls voorgestelde snippets gezien die gewoon ondermaats waren. Als ik dat dan nog moet verbeteren ben ik gewoon meer tijd kwijt.

En ik hoef geen productieklare code, maar dan is het pas bruikbaar, als ik alles zelf met de pap in de mond moet gaan lepelen, wat heb ik er dan aan ? Dan kon ik het evengoed zelf doen in de eerste plaats. Aan mijn studentjes programmeren zeg ik ook altijd: kopiëren en plakken mag je, maar je moet begrijpen wat er gebeurd, want als je het ooit moet patchen/fixen en je snapt niet wat er allemaal gedaan is, dan ben je verkeerd bezig. Dus als ik alles moet voorkauwen, wat is het nut dan ? Het zal mij meer tijd kosten. En laat er nu 1 ding zijn dat iedereen maar beperkt heeft en dat is tijd op deze aardbol.

Ik heb bijvoorbeeld vandaag een heel concept bedacht en al grotendeels gemaak, denk morgen of maandag nog een uurtje of 2 en ben er wel mee klaar. Als ik dat moet gaan voorkauwen en uitschrijven in pseudo code ben ik al langer bezig. Dus ik snap helemaal niet dat mensen zeggen, ja maar ik bespaar tijd. Voor triviale dingen ja. En mensen die zeggen dat 90% triviaal is en de andere 10% je moet nadeken. Daar ben ik het niet helemaal mee. Er is altijd een stuk "herhaling", maar meestal is het ook net iets anders, en dat net iets anders kan veel complexiteit met zich meebrengen.

Ik heb een eigen bedrijf en mijn prioriteiten zijn: 100% battle proof & tested, het moet gemakkelijk aanpasbaar/upgradebaar zijn. Als het dat niet is, dan hoeft het niet voor mij. Ik ben absoluut niet tegen tools gebruiken en ook niet om het wiel opnieuw uit te vinden. Maar ben wel tegen een library gebruiken omdat je daar 1 functie uit nodig hebt en overbodige dingen doen.

Met de huidige status kost het mij heel veel extra tijd om er iets bruikbaars uit te krijgen. Ja voor wat boilerplate etc kan ik dat nog verstaan. Maar daar heb je ook gewoon "download boilerplate" dingen voor. En ja moet alles tot in het puntje specifiëren, tsja sorry maar op die tijd heb ik het al lang gedaan. Een vriend van me heeft zelfde diploma (toegepaste informatica), maar doet eerder server. Hij kan echt niet programmeren, maar gebruikt dus chatgpt voor sommige dingen, en voor hem werkt dat. Hem kan het ook niet schelen dat de zon/zee/maan (en sterren) in de correcte stand moeten staan dat het werkt. Hij wilt gewoon iets om een paar zaken op te lossen, zodat hij niet afhankelijk is van anderen. Maar dat zijn geen baanbrekende programma's om het zo te zeggen, dat is eerder bijvoorbeeld gewoon een python scriptje dat ik bijvoorbeeld op 5 a 10 minuten zou maken ofzo. Of iets simpels in C# ofzo. Maar als ik dan nog "werkbare code" eruit zou krijgen, dan moet ik alles nog nakijken als het echt wel werkt etc. Dat is dan nog eens extra tijd. De enige keer dat ik nog code nakijk is voor het inchecken. Dan overloop ik nog eens wat ik allemaal aangepast heb. Uiteraard is het dan wel al getest, maar toch nog eens kijken als de code eventueel niet beter kan. Maar ik kan me niet herinneren de laatste keer dat ik niet tevreden was van mijn eigen werk. Maar toch blijf ik het doen, gewoon om zeker te zijn dat ik geen kemels geschoten heb. Terwijl ik goed genoeg weet dat het wel werkt, want het is uitvoerig getest en geunittest.

[Reactie gewijzigd door cricque op 28 september 2024 22:30]

Je geeft aan dat je 25+ jaar ervaring hebt. Ik ga er even vanuit dat dat gelijk staat aan kwaliteit :) Dat niveau heeft GPT (nog) niet.

Ik, als bedrijfseconoom, heb geen opleiding (formeel of informeel) gehad tot programmeur. Dus ook geen x jaar ervaring. GPT en anderen hebben het voor mij mogelijk gemaakt om script te ontwikkelen en om GitHub code te begrijpen die ik anders nooit begrepen zou kunnen zonder de taal echt te leren. Nu kom ik weg met logisch nadenken en basis kennis van de taal.

Is het 45 euro voor mijn relatief kleine scripts waard? Denk het niet, maar die 20 vind ik prima. Als het significant beter wordt, dan mogelijk ook wel 45.
Ervaring staat niet altijd gelijk aan kwaliteit (spijtig genoeg). Ik snap best dat er wel een publiek voor is en zoals in jouw geval een oplossing.

Alleen het probleem is, dat dit niet echt kwalitatieve code gaat opleveren die robuust en gemakkelijk aanpasbaar is. Dikwijls kan dit gewoon vele malen beter. Als het werkt is niet goed genoeg voor mij. Dat is voor mij alleen acceptabel als ik iets aan het testen ben. Als het werkt doe ik al jaren niet meer, correct of ik doe het niet. Een simpel voorbeeld: je hebt bijvoorbeeld een persoon en die heeft daar veel extra info aanhangen. Maar als je op 10000 personen gaat kijken dan zijn er slechts 100 variaties nodig. Een ORM zal dit standaard voor jou altijd ophalen, wat dus al trager zal gaan. Je zou ook die 100 variaties in het geheugen kunnen laden (tijdelijk) en die dan in memory toevoegen, wat veel sneller zal zijn. En hoe groter de data hoe meer winst je zal halen. Ook als je statistieken/grafieken wilt maken etc kan je dikwijls veel versnellingen doen door dit gewoon op een andere manier te doen. Werkt het: ja. Long term: not so much en af te wachten. Dit zal je ook niet op school leren bijvoorbeeld en zelfs in vele bedrijven niet, daar gebruiken ze de standaard. Terwijl het mits een paar aanpassingen meestal zoveel sneller en veelal beter kan. Uiteraard is dit niet voor iedereen het doel. Maar ik heb mijn eigen softwarebedrijf en applicatie, voor mij is dat dus wel belangrijk. Ik betaal zelf de rekening, als ik daar iets kan optimaliseren om minder kosten te hebben (lees dus ik minder kosten, klant sneller zijn resultaat) dan zal ik dat zeker doen. Dat mag je dus vergeten.

Uiteraard voor jouw use case snap ik best dat dit een oplossing is. Maar uit mijn eigen ervaring weet ik dat het voor mij een pak langer duurt om er iets werkbaars uit te krijgen, dan dat ik het zelf had gedaan. En met werkbaars bedoel ik ook het werk. En daar stopt het dan. Maar dat is dus voor mij niet goed genoeg. Ik wil geen rekening houden met de stand van de zon/zee/maan en de sterren om het zo te zeggen. En dat is iets wat ik niet terugvind. Zelfs niet voor "niet zo complexe" dingen (althans wat ik niet complex vind) is het helemaal niet bruikbaar en maakt het verkeerde keuzes en valt het bij onder de categorie "huis/tuin/keukengebruik". Maar daar kan ik mijn bedrijf niet op laten rusten.
Dank, kan ik me goed voorstellen.

Uit nieuwsgierigheid, kan een gpt je ook niet helpen met refactoring? Het gaat snel door je code heen en levert misschien ideeën voor verbetering op? Je automatische test suite er overheen en dan je eigen beoordeling of het een verbetering is?
Dat kan je altijd, maar op triviale code kan dat uiteraard. Op andere dingen zit het er dikwijls helemaal naast. Zelfs commentaar schrijven zit er dikwijls helemaal naast. Een lijntje code autocomplete is dikwijls nog niet correct. En als ik mijn eigen code moet refactoren ben ik slecht bezig hoor :). Aanpassingen op langere termijn kunnen altijd uiteraard en zal ook wel eens gebeuren, maar ik ben van het principe do it once, do it right. Maar nadien nog beoordelen kost dan ook weer extra tijd met dan een grote kans (zekerheid eigenlijk) dat ik toch nog dingen ga moeten aanpassen.

Zelfs de zogezegde schrijf alle unit tests, zijn niet 100%. Maar als ik het nadien nog moet nakijken wat is de praktijkwinst dan ? Als ik er effectief tijd mee zou kunnen winnen zeker. Het enige waar ik tijd mee win is dat ik niet effe op google moet gaan zoeken voor hoe werkt die functie nu weeral of wat hoe doe je dit in taal X. Ik gebruik zelf een mix van golang, python, node, react. En soms eens rust. Niet elke dag, maar ik ben ook geen javascript goeroe bijvoorbeeld en ken ook niet elke functie die er is. Maar ik weet best wel wat ik wil bereiken. En daar kan je wel wat tijd mee winnen, maar dan nog dat gaat om een paar seconden. En het is nu niet dat ik 10000x per dag iets moet gaan opzoeken ofzo. Dus zoveel winst is er niet.

Wel als ik les geef, dan werkt de autocomplete en voorstellen een stuk beter. Maar dat is "beginners" code en simpele oefeningen/voorbeelden. Maar als dat wat complexer is, dan is het ook verre van correct en worden dikwijls ook best practices overgeslagen. Zelfs voor kleine scriptjes dat niet zo nauw steekt vind ik het niet cht zo fantatisch. Voorbeeld: ik heb hier conky draaien, en daar kan ik ook live de output zien van mijn zonnepanelen. Ik dacht laat ons dat eens genereren via AI. Ik probeer nu elke paar maanden nog eens hetzelfde ding te genereren. En het is er niet beter op geworden. Ik wil het zeker een kans geven, en ik zie wel in dat dit mij kan helpen, maa r in de huidige status is het niet echt een hulp voor mij althans. Uiteraard als je niet kan programmeren (of weinig kennis ervan hebt) (wat geen schande is uiteraard) dat je dan dingen kan maken die werken is mooi meegenomen. Dus ik snap best dat sommige zeggen dit is een hele handige tool, terwijl voor andere het meer "meh" is om het zo te zeggen en voor nog anderen niet de moeite waard.
Voor in library die je nog niet kent is het een goede introductie, maar het stopt echt heel snel hoor.

Ik heb een tijdje geleden een paar Python scripties die ik jaren geleden had geschreven laten omzetten naar Kotlin. Ik werk dagelijks met Java, dus dat leek me low-hanging fruit om relatief snel onder de knie te krijgen.

Dit is dus bestaande code. Niets vaag aan, doet een paar eenvoudige stappen die ChatGPT meteen begreep.

Die gegenereerde code compileerde dus gewoon niet. Ben manueel nog door alle functies moeten gaan om ze op te kuisen.

Eenmaal dat gedaan was wou ik het ook nog wat sneller krijgen, dus ik vroeg om de werkende code multithreaded te maken. Het deed weer een goede poging, maar het was nog altijd niet correct. Bij elke poging om de error uit te leggen ging het verder en verder mis.

Op zich ben ik wel geslaagd in mijn doel: ik heb Kotlin beter leren kennen, en mijn scriptje is omgezet. En ik ga eerlijk toegeven dat dit waarschijnlijk sneller ging dan eerst door de documentatie site volledig te moeten gaan.

Langs de andere kant was dit een eenvoudig scriptje van max een paar honderd regels code en zelfs dat was een moeilijke bevalling. Op het werk met een paar honderdduizend regels code is er geen beginnen aan. Hij leert ook niet bij, dus telkens als je dan toch iets uitgelegd krijgt vergeet die het gewoon in het volgende gesprek, of zelfs hetzelfde gesprek 2 antwoorden later.

Dan steek ik liever mijn tijd in een junior die na enkele weken wel het één en ander heeft opgepikt. Die begint misschien op een gelijkaardig niveau, maar een goede junior laat ChatGPT in een mum van tijd ver achter zich.
Ik heb t ook geprobeerd met een simpele functie die niet helemaal werkte. Werkt dus idd voor geen meter. Dan vraag je zo'n model wat er mis gaat en geeft ie in feite zichzelf de schuld.

En bedankt...
Als ik een JavaScript bestand upload en vraag om het mij te laten zien, dan kan het dat niet eens. Laat staan dat ik vraag een issue in mn code op te lossen.

Ik kan ook dagelijks van energietarief wisselen voor mn stadsverwarming, ik heb Chat GPT de tarieven gegeven en gevraagd bij welk verbruik welk tarief het voordeligst is. Het gaf in alle situaties altijd t duurste tarief terug :)
Dat komt omdat chatgtp niet kan rekenen. De meeste gemaakte fout. Het gebruikt taalmodellen, geen rekenmodellen.
Heb je dan wel de goede vraag gesteld?
Misschien is het duurste volgens het algoritme het beste en de goedkoopste het slechtste :Y)
Yes datcm heb ik zeker, tot het punt waar het continue aangeeft inderdaad four te zijn, maar niet in staat is de fouten te herstellen en eenmaal zelfs tot het punt dat Chat GPT simpelweg stopte met reageren.
Zelfs de samenvattingen zijn niet altijd goed. Wanneer het een bekende tekst is waar meerdere samenvattingen van online staan dan krijg je een redelijke samenvatting terug (omdat hij trainingsdata heeft). Zodra het een originele tekst gaat van, bijvoorbeeld, een meeting dan valt zelfs dat tegen.
Ja dat zie ik ook inderdaad. Vooral het bepalen wat echt het kernpunt is van een tekst is iets waar het niet goed in is.

Is ook wel logisch want het kan de bron materie niet doorgronden.
Dat ook eens gedaan met het schrijven van database migratie scripts. Op het eerste oog ziet de SQL scripting er inderdaad goed uit. Om daarna te falen wanneer deze op een test database wordt uitgevoerd. En er daarna 2 uur moet worden gewerkt om het resultaat van ChatGPT werkend te krijgen op een Oracle database.

Dat had ik zelf dus sneller gekund. Ook omdat deze SQL voor SQL Server en Oracle op een paar plekken door elkaar haalde. Oracle is zowiezo geen fijne database, maar wanneer je migratiescripts moet gaan troubleshooten, pffff.

Daarna gepuzzel met prompts gedaan om via Python software te schrijven die het automatiseren van deze migratiescripts mogelijk maakt. Python genereert inderdaad op gemakkelijke wijze een script dat DB migratiescripts genereert. Maar opnieuw problemen.

Je bent voorlopig nog altijd meer tijd kwijt aan het troubleshooten van door ChatGPT gegenereerde code. Dat dit op een gegeven moment wel goed komt, daar ben ik wel van overtuigd. Maar dat is nu echt niet het geval. En ja, bovenstaande gebeurde met de betaalde versie van GPT-4o.

"All hail AI!", dat gaat er wel komen. Maar op dit moment zijn er (veel) teveel AI fanaten die te hard het hosanna zingen.
Tsja er zijn mensen die wat roepen en dan zijn er mensen die het echt proberen en testen. En zoals je zei triviale dingen op het moment kan, maar ook niet altijd correct. Dat het ooit gaat beteren zou kunnen.

Maar volgens mij het probleem: de publieke code is ook niet altijd coherent. Zeker omdat je in bepaalde talen dingen op veel manieren kan doen. Dat helpt ook niet. Dan is in veel code de code op zich al mediaan te noemen. Ook op stackoverlfow staan dikwijls meerdere oplossingen. En dat gaat daarvan leren. Dat gaat geen betere code opleveren. En dan gaan mensen die terug publiek maken, en dan gaan we leren van slechtere code. Ik heb het gevoel dat copilot (betaalde versie) er tov bijna een jaar terug veel meer naast zit dan dat het iets opbrengt.

Wat wel een hulp is en waar je soms tijd mee kan winnen (maar ook minimaal) is ipv via Google te zoeken de vraag rechstreeks te stellen. Kijk ik ken niet elke functie in Golang/Javascript etc, maar ik weet wel wat ik wil doen. Zeker als dat iets is dat niet een functie is die je 100x op jaar gebruikt zoals ik denk maar even: hoe splits ik een string op een bepaald karakter in javascript, voor zoiets ga je toch even een paar seconden winnen, doe dat meerdere keren per dag, dan heb je misschien een paar minuten winst gemaakt. Maar nieuwere dingen mag je zowieso al vergeten. Wat ik ook gemerkt heb is dat als de "vendor/maker" een uitgebreide documentatie heeft, dat ze dan voorkeur geven aan die documentatie. En dat is wel wat winst die je daar kan maken als je iets moet gaan opzoeken. Maar dan is het nog dikwijls de gegenereerde code aanpassen. Maar dan weet je wel hoe je het bepaald moet doen. Denk bijvoorbeeld als je bootstrap gebruikt en je wilt daar bijvoorbeeld god weet ik wat doen, maar dan moet je niet in Google intypen en kan je bijvoorbeeld in vscode dat rechstreeks oproepen.
Ik vroeg laatst maak een handleiding in een word documentje over hoe je een .crt en .key uit een .pfx haalt en HOPS een goede handleiding kant en klaar in Word in leken taal, stap bij stap.
Doorzetten naar collega’s en klaar. Kon ik rustig bakje koffie drinken
En jouw baas denkt dat jij dan nog nodig bent? Want dat kunnen de mensen ook net zo goed zelf aan chatgpt vragen. Dat hoef jij niet voor ze te doen.
Nee je verteld natuurlijk niet dat je ChatGPT hebt gebruikt. Als je normaliter een uur nodig hebt voor je handleiding doe je nu in 10 en de overige 50 min doe je wat voor je zelf. Werk slim niet hard want dan heb je weer het risico dat je meer op je bordje krijgt omdat men dan ziet dat je alles snel afrondt. Dus kortom, je bent 10 min bezig en verkoopt het als een uur zodat je even wat voor je zelf kunt doen of andere werkzaamheden kunt oppakken.
Early adapter advantage.

Maar goed in de toekomst heeft de AI overlord natuurlijk bepaald dat een ander die vrijer met die informatie was (of de software die alles wat ze doen tracked heeft dat bepaald) dat 10m voor een dergelijke taak de norm is. En dan moet iedereen zijn "AI enhanced" best doen, hogere productiviteit voor de bedrijven iig.
En wat dachten je collega's dat jij het volledige 'uitgespaarde' uur koffie zat te leuten?
Die denken niks want je werkt vanaf huis en je haalt netjes je targets ☺️
Klopt, ik probeer mensen ook te stimuleren om zelf zulke dingen te doen zodat ik niet om zulke simpele dingen word gevraagd en meer tijd over houdt. Dit hadden ze prima zelf kunnen uitvogelen
Heb je het uberhaupt ooit gebruikt? Je moet niet verwachten dat je ineens een lijntje met je schepper hebt die alle vragen kan beantwoorden, maar het is indrukwekkend wat het allemaal wel al kan.
Zeker. Daar is dan ook mijn mening op gebaseerd.
Ik verwacht dat het over 5 jaar wel iets anders is he.
Met veel plezier betaal ik die 44€ per maand! Chatgpt doet de eerste afhandeling van IT tickets waarbij de users een nette mail met instructies krijgen. Daarnaast helpt het bij coderen, heb een Chrome plugin laten maken zonder één letter javascript te kennen of überhaupt te lezen! Een whatsapp chatbot gemaakt waarbij we dagelijks een berichtje krijgen met de agenda items en we via WhatsApp afspraken kunnen doorgeven, adres wordt wel opgezocht en direct in de agenda erbij gezet. Emails, zoom, chatberichten alles via speech to text via chatgpt. Typ bijna geen mails meer zelf. Presentaties worden gemaakt waarbij ik simpelweg mijn gedachten uitspuw en daarna vraag om er een nette slide van te maken

Al dit soort dingen waren me niet gelukt zonder chatgpt..... ik ben er iig veel efficiënter door geworden!
Ik betaal liever het huidige tarief dan € 44 om eerlijk te zijn. Uiteindelijk hangt het er vanaf wat je ervoor krijgt en hoe het zich verhoud tot concurrerende oplossingen.
Dus je levert graag 44 euro salaris in om je werk simpeler te maken? Interessant
Ik lever graag 44 euro in om mijn werk interessanter te maken dat klopt. Maar ik snap je punt, de voordele vloeien rechtstreeks door naar de onderneming en haar aandeelhouders. Dit is quasi gelijk bij elke technologische vooruitgang, hoewel we nu maar 38 uur per week werken, dus op de lange termijn wellicht.

Rechtstreekse monetaire voordelen zijn voor mij dat ik wordt beoordeeld op de hoeveelheid werk, vernieuwing wij kunnen leveren en de kwaliteit van wat we leveren. Dus op die manier profiteer ik er wel degelijk van, zeker meer dan 44 euro
Ik investeer graag 44 euro als mij dat tijd en/of mogelijkheden oplevert. Als ik de voorbeelden van hierboven pak: tijd besparen op l1 betekent meer tijd voor bijvoorbeeld l2. Of meer tijd om features te ontwikkelen, of meer tijd voor klantcontact of meer tijd voor familie en vrienden of ...
Dus als je efficiënter wil werken en meer werk verzet wil krijgen op een dag dan kost je dat 44 euro en de enige die daar echt van profiteert is je baas en als je meer tijd wil hebben voor vrienden dan kan je ook gewoon minder werken. Ik volg je redenatie dus niet
als de baas die 44 euro investeert dan wil de baas daar natuurlijk wat voor terug. Als ik persoonlijk iets investeer dan wil ik daar ook iets voor terug

Als ik de baas ben dan geef ik mijn werknemers graag de tools om meer werk te kunnen verrichten en/of meer tevreden te zijn met het werk wat ze doen. Dat kan deze tool zijn, kan ook iets anders zijn. Simpele business case.

[Reactie gewijzigd door WaarAnders op 9 oktober 2024 18:09]

Persoonlijk vind ik het een hele handige tool die ik letterlijk elke dag gebruik als IT-er. Ik vond altijd al wel dat ik prima Google skills had, maar nu kan je echte toegepaste voorbeelden krijgen, en heel specifiek op alle punten doorvragen waar het onduidelijk is.

Ik betaal ervoor, het is het me waard :)
Je hoeft het product niet af te nemen. Dus het is geen vaststaand feit dat je gaat betalen.

Verder mogen ze vragen wat ze willen. Er is op deze markt inmiddels behoorlijk wat concurrentie, dus als ik hun was zou ik wat voorzichtig zijn met de prijs zomaar te verhogen.

Een discussie over wat AI is lijkt me hier niet zo relevant.
Je hoeft het product niet af te nemen. Dus het is geen vaststaand feit dat je gaat betalen.
Ik durf al wel een kleine voorspelling te doen: het grootschalige gebruik van deze "ai" zal gigantische maatschappelijke kosten met zich meebrengen die we met ons allen op zullen moeten gaan brengen. Vergelijkbaar met alle problemen die het ons laten aansmeren van eetbare waren door de voedselindustrie met zich mee heeft gebracht.
80% van artikelen in supermarkt hebben weinig met voedsel/eten te maken
Het is comfort voedsel, slecht voor je gezondheid en vervuilt de natuur ook nog eens.

Technologische ontwikkelingen kan je daarmee niet vergelijken
Auto, vliegtuig, pc, tv, telefoon, smartphone, internet, google, wifi, wasmachine etc hebben wel degelijk bijgedragen aan een luxere leven.
Kan je nagaan die machine waar je jouw reactie op getypt hebt,, onnodig, al dat plastic en energie verbruik.

Vroeger, toen we nog voor het nieuws naar het dorpsplein moesten. dat waren pas tijden :+
Waar haal je die 80% vandaan en wat is je definitie van voedsel/eten? Want in principe kun je zowat alles van de afdeling dierenvoeding ook eten.

En wat is je definitie van slecht voor je gezondheid. Want een product is niet per se slecht, het hangt allemaal heel erg af van de hoeveelheid van verschillende stoffen die je binnenkrijgt.
Waar haal je die 80% vandaan en wat is je definitie van voedsel/eten?
Je kunt het wel eten maar van veruit de meeste producten is de voedzaamheid ver beneden peil. Het is technisch nog wel eten te noemen, maar het voedt je lichaam amper. Gevolg is dat je er (veel) meer van gaat eten. Het is eigenlijk gewoon een soort valstrik gebaseerd op neurowetenschappelijke feiten over ons voedingsgedrag. Het heeft weinig meer met normale gezonde voeding te maken.
Auto, vliegtuig, pc, tv, telefoon, smartphone, internet, google, wifi, wasmachine etc hebben wel degelijk bijgedragen aan een luxere leven.
De hoeveelheid vervuiling/beschadiging aan natuur en mens dat al deze dingen met zich meebrengen zijn er ook wel niet naast.

"AI" maakt het nog een pak erger met de gigantische hoeveelheden energie en vers water (datacenter cooling) dat het gebruikt.
Alle veranderinning in onze maatschappij heeft gevolgen ergens.

De industrial revolutie heeft enorme verbeteringen gemaakt in onze maatschap (nieuw medicijnen en vacinaties, technologies, dat ons leven verbeterende) en enorm verslechteringen (fabriek arbeid in gevaarlijk toestanden, vervuiling, ...). Daar zijn enorm veel mensenlevens verloren gegaan, jaren van stakingen, creatie van unions enz. Tot we tot een "goede" balance kwamen (wat langzaam aan het wegrotten is).

AI zal zaken verbeteren en verslechteren, en tot we enorm wat tijd ingestoken hebben om de negatieve aspecten te beperken... En voor de volgende X aantal jaren, tot er wetten, en andere middelen komen om de negatieve aspecten tegen te houden (deep faking, betere anti theft van stemmen enz). Zien we mensen sterven door AI, ja, miljoenen, mogelijk?! AI misbruik dat de oorzaak word van genocides, zeer mogelijk. Maar de industrial revolutie was hetzelfde potje nat, waar we beter werden om elkaar af te slachten.

Het probleem is, iedere ding dat een revolutie is, heeft wel iemand dat het zal misbruiken. Het is in onze natuur.
Ze hebben waarschijnlijk de prijzen van NVIDIA's Blackwell gezien en dachten "dat gaat hem niet worden met de huidige prijzen die wij vragen" ;)
Ze zijn in ieder geval nog wel een tijdje non profit...
Of al die miljarden ooit terugverdiend worden is geen uitgemaakte zaak.
Open AI hanteerd een combinatie van capped profit en non-profit. Volledig non profit zou ik ze niet noemen.
Dan heb je totaal geen ervaring met chat gpt 4+.
Je hebt duidelijk geen idee, of je gebruikt het compleet verkeert.
OpenAI zou dit jaar vijf miljard dollar aan kosten maken. Deze kosten zijn onder andere de loonkosten van werknemers, de huur van kantoorgebouwen en andere kosten die verbonden zijn aan de bedrijfsactiviteiten. De energiekosten zouden ook een groot aandeel vormen. Er wordt verder niet in detail gegaan over de mogelijk toegenomen kosten. De New York Times schrijft wel dat de kosten van OpenAI zullen blijven toenemen naarmate het aantal gebruikers stijgt.

Ik wil het bonnetje wel eens zien, 5 miljard is geen kattepis.

edit; Dan dit, ze ruiken $€`s
$2 p/mnd verhoging, $24 p/jr (is geen inflatiecorrectie), meer dan 10% verhoging in een maand :F
De ChatGPT-maker begon in 2015 als non-profitorganisatie, met als doel om geavanceerde AI te ontwikkelen ten behoeve van de mensheid.

[Reactie gewijzigd door GameNympho op 28 september 2024 10:47]

edit; Dan dit, ze ruiken $€`s
$2 p/mnd verhoging, $24 p/jr (is geen inflatiecorrectie), meer dan 100% verhoging in een jaar :F
Die 100% verhoging in een jaar klopt niet. Je gaat dan de verhoging op 1 jaar vergelijken met de prijs van 1 maand.
Ik snap niet waarom openai geen advertenties plaatst.
Laatste kwartaal omzet van Alphabet mbt advertenties was 46 mld.

Op dit item kan niet meer gereageerd worden.