Analist: verkeer naar ChatGPT loopt terug

Chatbot ChatGPT van OpenAI kreeg in juni elf procent minder bezoekers dan in mei, zegt analist Justin Post van Bank of America. Het zou voor het eerst zijn dat het bezoek aan de chatbot maand op maand terugloopt.

Bing: interesse in chatbots neemt niet af
Bing: interesse in chatbots neemt niet af

Post schat volgens CNBC dat ChatGPT ongeveer 51 miljoen unieke bezoekers had in juni, elf procent minder dan in de maand ervoor. Post noemt geen oorzaak van de daling, maar merkt op dat het erop lijkt dat ChatGPT voorlopig geen geduchte concurrent zal worden voor de Google-zoekmachine, die naar schatting vijftig keer zoveel bezoekers heeft. Ook Similarweb meldde al een daling van bezoekers bij ChatGPT.

Het aantal downloads van de apps van ChatGPT en Bing is in beide gevallen met 38 procent afgenomen in juni, schat Post. Dat was vooral bij ChatGPT te verwachten, omdat de app in mei is uitgekomen en alleen nog voor iOS beschikbaar is. OpenAI heeft niet gereageerd op de cijfers van de analist.

Door Arnoud Wokke

Redacteur Tweakers

06-07-2023 • 11:55

141

Reacties (140)

Sorteer op:

Weergave:

In mijn geval is het simpelweg omdat de werkgever het (voorlopig) verboden heeft om te gebruiken, totdat meer duidelijkheid is wat er met de opgestuurde gegevens gebeurt. Men wil voor de klanten die we hebben voorkomen dat stukjes van de software die we voor ze maken ineens ook beschikbaar wordt voor anderen, omdat ChatGPT mogelijk leert en misschien hun eigendom weer deelt met anderen.

Nou begrijp ik sowieso niet wie er stukjes bedrijfscode in ChatGPT plakt, vanaf dag één leek mij dat al niet slim. Net zoals ik nooit stukjes bedrijfscode op StackOverflow zou zetten of überhaupt op internet. Als ik het al doe (zelden), dan hernoem ik alle variabelen, methodenaam en haal ik stukjes weg die niet relevant zijn. Zodat het eigenlijk niet te herleiden is en ik ook niet iets weggeef wat voor problemen kan zorgen.

Moet zeggen dat ik ChatGPT echt wel af en toe mis, vooral voor vraagstukken hoe je bepaalde problemen kan oplossen. Dan kun je eerst een gigantische lading aan documentatie gaan lezen van een API of een framework hoe je iets voor elkaar moet krijgen, wat mij echt veel meer tijd kost. Bij ChatGPT heb ik bijna altijd wel een uitleg en/of voorbeeld dat heel goed aansluit op mijn vraag en waar ik ook verder mee kan. Bij wijze van spreken is het antwoord voor 90-95% al goed, de rest vogel ik dan nog wel uit. En zoals met alles moet je natuurlijk niet blindelings aannemen dat het altijd helemaal klopt, maar ik blijf het gewoon een erg goede assistent vinden die echt tijd (=geld) bespaart.
Je kunt toch ook het delen van informatie uitzetten in ChatGPT? Dan wordt data niet doorgezet als bron.
Zolang dat ChatGPT niet on-prem kan draaien, gaat dat voor veel bedrijven een probleem blijven. Een vinkje is leuk, maar daar ga je niet op vertrouwen als het kritische bedrijfsinformatie gaat. Er zijn zo veel manieren waarbij je data toch nog op straat kan belanden die volledig buiten je controle zijn. Als je als bedrijf hun data serieus neemt, moet die gewoon inhouse blijven, of bij een instantie draaien die expliciet vertrouwd wordt.
GPT-2 kan je on-prem draaien. Helaas zit er een groot verschil in kwaliteit tussen versie 2 en de 3 (en ook tussen de verschillende versies van GPT-3 onderling), maar wie weet wordt het nog wel een keer mogelijk on GPT-3 on-premise te draaien :)
Zolang het niet te herleiden is of je domeinnaam in de code voorkomt zou het geen probleem moeten zijn. Je kan toch ook vragen naar algoritmen in een abstracte manier of hoe je iets zou oplossen. Code op StackOverflow kan je toch even snel refractoren net zoals je de bot dezelfde hernoemde functies en variabelen zou geven. Ik bedoel als het hallucineren van bekende API oké is dan zou ik me niet zo druk maken over gegevens mits je geen super snel algoritme aan het ontwikkelen bent dat je wil patenteren.
Goh, iedereen grijpt direct naar hype, verbod, mensen hebben door hoe het werkt, etc. Maar we hebben in Europa in Juni een hittegolf gehad, waardoor mensen eerder wat anders gaan doen dan achter de PC zitten... Daarnaast zelfs de mensen die liever achter die PC zitten dan buiten, zullen zo weinig mogelijk PCs aan hebben staan omdat stroomverbruik=warmte.

Eindexamens zijn in Mei/Juni geweest en afgelopen, studenten zijn klaar, vakanties zijn begonnen, etc.

Daarnaast zie ik ook de interactie op een site als bv. Tweakers.net drastisch afnemen de afgelopen maand.
Dat is allemaal wel waar maar eerder hypes (zoals bitcoin) hebben daar weinig last van gehad. Die groeide zo snel dat dit soort tijdgebonden invloeden verwaarloosbaar waren ten opzichte van de groei.

Hoewel ik groot van GPT ben zie ik ook dat de meeste mensen het niet echt begrijpen waardoor er heel veel onterechte hype is ontstaan. Dat neemt niet weg dat GPT toch echt heel gave techniek is die best wel enige hype verdient. Het voelt een beetje alsof mensen te horen krijgen dat ze voortaan kunnen vliegen, en dan teleurgesteld zijn dat je een vliegmachine nodig hebt en niet gewoon met je armen kan klapperen. Ja, vliegen door met je armen te klapperen zou nog veel mooier zijn, maar ondanks dat is een Boeing 747 toch echt een heel erg nuttig apparaat.
Dat is allemaal wel waar maar eerder hypes (zoals bitcoin) hebben daar weinig last van gehad. Die groeide zo snel dat dit soort tijdgebonden invloeden verwaarloosbaar waren ten opzichte van de groei.
Met het grote verschil dat crypto direct geld opleverde en dat doet ChatGPT niet, dat kost alleen maar geld als je een abo wil. Daarnaast was crypto een farm bouwen en draaien, eigenlijk geen verdere user actie voor nodig. EN toen geen hittegolf in deze hoedanigheid (of zo vroeg in de zomer). Leerlingen en studenten hadden de cash over het algemeen niet liggen voor dergelijke aankopen en als ze dat wel hadden, dan hield hun queste naar geld niet op na het eindexamen of hun opdrachten... Je hoefte ook niet naast/achter die farm te zitten terwijl die draaide, dus veel mensen dumpte die op zolder. Ook waren dat vaak kleine farms en de grotere farms werden gerunt door meer professionele gasten die het niet langer alleen op zolder hoefte te dumpen, maar het konden plaatsen in bedrijfsruimtes en/of datacenters zodat ze de benodigde stroom konden krijgen.

[Reactie gewijzigd door Cergorach op 23 juli 2024 07:47]

Met het grote verschil dat crypto direct geld opleverde en dat doet ChatGPT niet, dat kost alleen maar geld als je een abo wil.
Dat is niet helemaal waar. Onder het adagium 'tijd is geld' kan ChatGPT je een hoop opleveren, zeker als je per opdracht wordt betaald of op commissie kan chatGPT zeker een hoop opleveren. Zelf wordt ik gewoon per uur betaald, dus monetair heb ik geen directe winst. Maar mijn vakgebied (academisch) is wel afhankelijk van hoeveel je publiceert, en dat kan ik nu in iets hogere kwantiteit (er ging toch best wat tijd naar taalcorrectie). Dat zorgt op termijn gewoon voor snellere promoties/betere aanbiedingen.
Het voelt een beetje alsof mensen te horen krijgen dat ze voortaan kunnen vliegen, en dan teleurgesteld zijn dat je een vliegmachine nodig hebt en niet gewoon met je armen kan klapperen
_/-\o_ mijn complimenten voor deze analogie :D . Ik heb er ook hartelijk om moeten lachen want het is precies wat er gebeurd is met chatgpt. Mensen hadden verwacht dat het een feiten en waarheidsgetrouwe antwoord apparaat was, dat het ook wist wat er gisteren in de wereld was gebeurd enz. Vervolgens helemaal teleurgesteld zijn omdat de "antwoorden" niet altijd kloppen, dat het soms erop los hallucineert en dat het niet eens kan rekenen en dom is.
Dat is allemaal wel waar maar eerder hypes (zoals bitcoin) hebben daar weinig last van gehad. Die groeide zo snel dat dit soort tijdgebonden invloeden verwaarloosbaar waren ten opzichte van de groei
Dat vergelijk loopt scheef. Als je naar de eerste paar jaar van bitcoin kijkt was de market cap een rechte lijn.

Binnen elke hype heb je na de grote stijging de "peak of inflated expectations" en de "Trough of Disillusionment". Neemt niet weg dat large language models een glanzende toekomst tegemoet gaan uiteraard. Nu kan het een aanvulling zijn, zoals Microsoft het noemt een "co-pilot" maar als we straks op versie 7 of 8 zitten dan is het gewoon de piloot.
Klopt. Ik heb een vrij grote NL-site en daar zag ik ook een dip in traffic met de warme dagen. Net zoals dat koude en regenachtige dagen meestal weer voor een piek zorgen. Dus om na een afname van 1 maand meteen te roepen dat de hype over is, vind ik wel heel voorbarig.
Hmmm ik zit net zoveel achter de computer als anders maar ik kan me er wel in vinden. Op de een of andere manier is er ook iets veranderd. OpenAI is iets te voorzichtig geworden de laatste tijd.

Ik krijg steeds vaker "Deze vraag mag ik niet beantwoorden", "Ik ben maar een taalmodel, ik weet van niets" en dat soort dingen. Ik zie dit behoorlijk met GPT4 in het bijzonder (omdat ik een abo heb gebruik ik die het meest). En nu is de bing functionaliteit er ook alweer uitgehaald. Ik denk er ook over om mijn abo een tijdje op te zeggen.

Ik zeg niet dat de dingen die je noemt geen factor zijn, maar ik zie ook een hele harde push naar veel regelgeving en ik heb het idee dat de AI bedrijven hier nogal angstig voor zijn en te hard reageren.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 07:47]

Ik zeg niet dat de dingen die je noemt geen factor zijn, maar ik zie ook een hele harde push naar veel regelgeving en ik heb het idee dat de AI bedrijven hier nogal angstig voor zijn en te hard reageren.
Eigenlijk hetzelfde verhaal als met crypto exchanges. Preventief allerlei dingen blokkeren uit paniek voor eventuele regelgeving. Wacht gewoon tot er effectief regels zijn en pas dan je product aan i.p.v. te willen "slijmen" bij de overheid. Die zijn je écht niet dankbaar hoor ;)
En welke reden ga je opvoeren als blijkt dat er in juli weer een daling is geweest? Het gaat niet alleen over Nederland, niet eens over Europa, maar wereldwijd. En niet in heel Europa is er een hittegolf geweest.
Daarnaast wordt ChatGPT veelal beroepsmatig gebruikt, dus daar gaat de hittegolf al helemaal niet meer op. En wat betreft de scholen, we zullen het in september gaan zien. In oktober zullen de cijfers wel bekend worden gemaakt.
En welke reden ga je opvoeren als blijkt dat er in juli weer een daling is geweest?
Vakantie periode.

En vergeet ook niet dat de concurrentie/licentiehouders ook bezig zijn met het implementeren van LLMs, MS draait zijn eigen LLM gebaseerd op GPT4, dat is nu nog in een soort van private preview (Microsoft 365 Copilot). Dergelijke oplossingen zijn beter gericht op het bedrijfsleven, wat het OpenAI abo absoluut niet is. Google heeft ook zo zijn LLM projectjes, veel beperkt tot alleen de VS, etc.

Ik heb zelf overwogen een OpenAI abo te nemen, maar OpenAI is te onvolwassen imho voor het bedrijfsleven, ik zit te wachten dat Microsoft 365 Copilot uit de private preview is en ik daar een abo op kan nemen. Zelfde tech, andere aanbieder.
Het geheugen of context lijkt vrij snel los gelaten te worden. Ik probeerde een video uit een blob te downloaden en de bot probeerde verschillende methoden, JavaScript, Selenium maar vergat vaak de video tag weer en vul zelf maar de blob url in. Ik denk dat je erg concreet moet blijven en niet teveel te verwachten. Het is fijn dat je goede tips krijgt maar uiteindelijk als je geen of weinig achtergrondkennis van bijvoorbeeld webbrowsers en JavaScript hebt en je browser 29GB aan geheugenverlies lijdt dan gebruik je toch echt teveel bronnen en laat je me in de steek. Niet slim bot!
Je kan er een hoop mee leren maar vertrouw er niet op dat als een programmeur denkt. Tsja allemaal stukjes aan elkaar lijmen en hopen dat het werkt haha. Koste me meer tijd dan dat het waard was.
Of het nieuwe is er simpelweg af, zoals in mijn geval. Ik zoek vooralsnog liever zelf dingen uit en ga hooguit bij ChatGPT te rade voor wat inspiratie.
Of het nieuwe is er simpelweg af, zoals in mijn geval. Ik zoek vooralsnog liever zelf dingen uit en ga hooguit bij ChatGPT te rade voor wat inspiratie.
Ik denk dat het veel te maken heeft met dat mensen de beperkingen van GPT leren kennen. GPT is uiteindelijk niet meer dan een taalmachine. Het is geen AI die dingen voor je uit kan zoeken. Als je dat probeert dan zal het al snel tegenvallen.
Veel mensen denken nog steeds dat je GPT kan gebruiken om inhoudelijke vragen te beantwoorden. Dat is niet zo, hoewel het soms goed gaat zou ik nooit iets aan GPT vragen dat ik niet zelf eenvoudig kan controleren. De betere manier is om niks aan GPT te vragen, maar GPT te vertellen wat het moet doen en daarbij alle feiten aan te leveren.
Als je zelf voor de feiten zorgt dan kan GPT er een mooi verhaaltje van maken.
Veel mensen kunnen niet eens een goede prompt schrijven en weten niet eens de helft van wat het echt kan…
Als je je prompt op een of andere esoterische manier moet schrijven voor het goede antwoord, dan is het product simpelweg nog niet goed genoeg.
Ja maar op die manier hoef je het ook weer niet te schrijven. Maar een complete leek kan er bijvoorbeeld nooit een echt goed antwoord uit krijgen over een onderwerp waar het persoon zelf niets van af weet. Wat dat betreft heeft @CAPSLOCK2000 dus ook gewoon gelijk, als je zelf al feitelijke kennis hebt kan GPT je leuk helpen.

Als een manager bij mij aankomt met software die door GPT geschreven is dan dump ik het gelijk, maar ik gebruik GPT wel af en toe als ik even vastzit en een nudge vooruit nodig heb, dan werkt die best goed in de meeste gevallen.
Dit snap ik niet. Vandaag vroeg ik me af waarom het ding gewoon niet zelf kan debuggen. Wat your own dog food. Je kan natuurlijk niet data van klanten uploaden maar voor publieke bronnen of web scrapes waarom niet? Laat hem maar een loop doen en van zijn eigen suggesties leren want het enige is kijken of je code compilatie of programma werkt door debugging. Dus zoiets wat een GAN doet.

En als mens kan je dat stuk sturen en observeren wat de bot zelf niet kan. Work in progress. Gaat nog interessant worden.
Als je je prompt op een of andere esoterische manier moet schrijven voor het goede antwoord, dan is het product simpelweg nog niet goed genoeg.
Of het is simpelweg (nog) te lastig te gebruiken door gewone mensen. Er zijn ook maar heel weinig mensen die een F1 auto goed kunnen besturen, maar dat maakt die auto's niet slecht.

In het verleden is er ook meermalen geprobeerd om programmeren toegankelijk te maken voor gewone mensen, maar het bleek steeds dat ook bij een versimpeling van de programmeertaal, het toch al snel te lastig is voor de meeste mensen om de vertaalslag te maken van hun gedachtes naar iets dat de computer kan begrijpen. Dus dan was er toch een specialist (programmeur) nodig.

Ik verwacht ook dat de huidige generatie van AI vooral door zal breken als onderdeel van andere producten, waarbij programmeurs de vertaalslag grotendeels maken en de AI duidelijk vertellen wat nodig is.

Op termijn zou men ook AI's kunnen ontwikkelen die meer opereren als een echt persoon en context meewegen bij het interpreteren van instructies. De huidige AI's hebben juist een zeer beperkte context. Als je bijvoorbeeld een lange vraag stelt, dan 'vergeten' ze al het begin van de vraag. En er is totaal geen sprake van dat de AI onthoudt waar je het in eerdere gesprekken over had of welke informatie je toen gedeeld had.

[Reactie gewijzigd door Ludewig op 23 juli 2024 07:47]

Er zijn ook maar heel weinig mensen die een F1 auto goed kunnen besturen, maar dat maakt die auto's niet slecht.
Maar wel onbruikbaar op de openbare weg...
om de vertaalslag te maken van hun gedachtes naar iets dat de computer kan begrijpen
Het echte probleem is abstractie denk ik. Want naar iets wat de computer kan begrijpen is eigenlijk een 'kunstje'.

ChatGPT is bij benadering een AI als het gaat om intelligentie.
Het gebrek aan genoeg zelf-attentie bij lange zinnen blijft inderdaad een probleem bij Transformers, want dat vereist exponentieel veel rekenkracht
iemand al 'prompt engineer' zien opduiken in een CV of LinkedIn?
Zeker en vast. Ongetwijfeld een van de meest dwaze termen van de afgelopen jaren.

Mensen die kunnen Googlen zijn dus al meer dan 20 jaar prompt engineer.
Thanks, zal gelijk mijn CV eens updaten :P
Eerlijk gezegd denk ik dat juist niet. Het is voor mensen al lastig goede Google termen te gebruiken, laat staan chatGPT te snappen en te sturen, want dat moet je wel doen wil je er wat aan hebben. Het is dus van belang dat je al verstand hebt van het onderwerp, maar als dat zo is kom je een eind, ik heb al heel vaak het kunnen gebruiken met succes en dat ligt zuiver aan het in kunnen schatten wat klopt dan wat bijsturen en nieuwe zaken eruit te krijgen die me op een goed spoor brengen. Dat vind ik nog steeds super krachtig. Net ook in een nieuwe video van Applied Sciences, wist even niet waarom zijn chemische reactie troebel was, vroeg het een chatGPT en die gaf een goede verklaring. Alleen maar voor hem interessant dat te vermelden omdat hij kon inschatten dat het geen onzin was. Een prompt engineer is dus weldegelijk van belang.
Mensen die kunnen Googlen zijn dus al meer dan 20 jaar prompt engineer.
Ik herinner me nog dat een Belgisch softwaretijdschrift sprak over cybrarian: de job van de toekomst, expert in zaken opzoeken op het internet!
OMG staat ook gewoon in de cambridge dictionary: https://dictionary.cambri...tionary/english/cybrarian
Google’s hoofdzakelijke algoritme is pagerank, dus de hoeveelheid verwijzingen naar een pagina.
Waarbij ChatGPT’s hoofdzakelijke algoritme “next token prediction” is, dus hoe dicht verwant het concept waar jij naar zoekt met wat er gevonden is. Ze kunnen daardoor dus verschillende resultaten geven.

[Reactie gewijzigd door Weicool op 23 juli 2024 07:47]

Ik heb het veel op sociale media gezien, maar dan noemt iedereen zich opeens “prompt engineer” omdat het zo cool en hip klinkt, zelfs wanneer de code die ze produceren niet eens werkt.
De AI moet je wel duidelijk kunnen maken wat je echt bedoeld. Jij kan het wel helemaal helder in je hoofd hebben, dat betekend niet dat een AI de precieze context begrijpt.
Zo intelligent is dat spul dan niet dat het geen vragen stelt om de context duidelijk te krijgen.
Verwijderd @Bunga6 juli 2023 13:26
Het spul is helemaal niet intelligent, en weet zelf niets over context.
Het is belangrijk te onthouden dat zo'n "AI" niet meer is dan gegeven een bak woorden in een bepaalde volgorde, dat het het meest waarschijnlijke volgende woord gaat berekenen op basis van hele lappen tekst die het gevoed heeft gekregen om na te kunnen kijken welk woord in het verleden typisch op zo'n plek kwam.

En dan voor elk volgend woord in het antwoord wordt die zelfde berekening weer gedaan, zo'n "AI" weet niet wat het zegt, het is gewoon statistisch woordje raden. Het feit dat het lijkt op dat het een antwoord geeft komt omdat het traininsmateriaal in die vorm is gegoten, en omdat de prompt de hele vraagstelling in die zelfde vorm giet, om zo het opzetten van een antwoord in de gang te zetten.
Dat is hetzelfde als lopen, kan je ook niet meteen. Je moet een trucje leren. Het kan ook nog vele malen beter. Als het ook begrijpt waarover het praat, een geheugen heeft etc.

Ik vind het persoonlijk geniaal. Vooral copilot, de afgeleide ervan helpt me veel productiever zijn
Dat ben ik toch niet geheel met je eens, net zoals google kun je basaal veel informatie in ChatGPT (en Google) vinden maar met verfijnde search queries/prompts en doorvragen/door zoeken krijg je toch beduidend betere informatie. Wat ik zelf ook prettig vind is dat de hoeveelheid aan informatie dat je krijgt voorgeschoteld aangepast kan worden. Bijvoorbeeld "Give me information on xxx max 150 words" of wanneer je een "give me information on xxx" en dan op onderdelen van dat antwoord verdere uitbreiding zoekt.

Het product kan natuurlijk makkelijker, slimmer, beter, maar heel veel is ook afhankelijk van je eigen inzet.
Bij moeilijke onderwerpen stel je toch ook niet de vragen in één keer, maar stel je extra vragen naarmate je de uitleg krijgt.

Chatgpt zou vooraleer te antwoorden extra vragen moeten stellen om zeker te zijn dat hij het juiste antwoord geeft.
Mijn dyslectische vrienden gebruiken het op hun werk om sneller foutloze mails te schrijven. Ook laten ze GPT het taalgebruik wat meer corporate klinken et voila.

Ikzelf heb het gebruikt om het een layout te maken voor een business case. Handig want daarna hoefde ik alleen onder de juiste kopjes informatie toe te voegen in plaats van een heel document opmaken.

Meer dan dat zou ik het eigenlijk niet laten doen. Daarvoor maakt het teveel fouten of vult het gewoon onzin in om maar een lopende zin te schrijven.
Het is inderdaad goed voor een formele brief of e-mail, waarin je kort de hoofdpunten uitzet en de AI de standaard zaken zoals de aanhef, groet, overdreven voorbeelden en verzonnen bronnen die je gelijk bewijzen erbij laat zetten.
Zelf dat loopt vaak fout, hij verwijderd vaak essentiële argumenten die in de mail hadden moeten blijven. Soms gebruikt hij ook vreemde woorden of klopt het doel van de zijn niet meer met waarvoor het eigenlijk diende.
Ik besteedde veel tijd om hem te corrigeren, ik ben gestopt.

Er zijn intussen veel andere tools die gratis zijn en betere resultaten geven.

En zoals eerder gezegd kan je het beter niet gebruiken voor iets op te zoeken. Bard is al iets beter in dat opzicht.

Waar ik wel toekomst in zie is het interpreteren van menselijke opdrachten. Zoals slimme Google assistant of alexa, want die zijn nu vreselijk irritant omdat ze niet veel begrijpen tenzij je exact weet hoe je het moet vragen.

[Reactie gewijzigd door sebastienbo op 23 juli 2024 07:47]

Ah ja, het schrijven van een goede prompt zonder ambiguïteit is soms ook een kunst… Over welke andere tools heb jij het eigenlijk? Ik ben nog geen enkele tool tegengekomen die zoveel kan als GPT-4. Bard geeft vaak zelfs nog minder nauwkeurige antwoorden…

[Reactie gewijzigd door Weicool op 23 juli 2024 07:47]

Monica en ghostwriter zijn 2 goede die zich op schrijven van communicatie concentreren. En die zijn in je browser geïntegreerd als plugins, zo dat je er niet altijd naartoe hoeft te gaan.

[Reactie gewijzigd door sebastienbo op 23 juli 2024 07:47]

Monica is slechts een UI voor GPT en zelf geen AI. En Replit Ghostwriter is alleen voor code en veel slechter dan GPT-4, waarbij die GPT-4 veel meer programmeertalen ondersteunt dan Ghostwriter.

[Reactie gewijzigd door Weicool op 23 juli 2024 07:47]

Ik sprak overalternatieven voor CHATGPT, niet GPT, en monica is daar effectief een alternief voor waar preprompting als specifiek gebeurd voor het schrijven van teksten en ze is geintergreerd in mijn browser waardoor ik niet altijd naar chatgpt moet copy pasten en de preprompting word al specifiek gedaan voor het schrijven of beantwoorden van berichten.
Ik had het ook over het feit dat ik chatgpt niet meer gebruik voor informatie op te zoeken, maar dus we nog voor berichten te schrijven.

[Reactie gewijzigd door sebastienbo op 23 juli 2024 07:47]

Maar het is daarmee slechts een andere UI template voor ChatGPT
Zie je dan echt niet het verschil?

Chatgpt is een prompt tool waar je naartoe moet gaan en waarbij je zelf prompts moet uitvinden die specifiek zijn voor elke apparte mail (schrijfstijl,etc) en waar je input moet insteken.
Monica zit gewoon in je browser en met één click leest ze je mail en maakt een antwoord zonder dat je van pagina moet veranderen, moet prompten en input geven.

Ik ben je niet aan het overtuigen dat het beter is, of dat je het moet gebruiken.
Ik zeg gewoon dat het veel handiger is voor mij.

[Reactie gewijzigd door sebastienbo op 23 juli 2024 07:47]

Als spellingscontrole gebruik ik DeepL Write. Helaas ist het nog wachten op de Nederlandse taal.
GPT doet Nederlands wel. Elke drie of vier prompts vergeet hij dat echter, dus het helpt om een copypastable prompt te hebben waar dat al gedefinieerd staat.
Mja typisch geval van garbage in, garbage out. Je moet leren hoe je met dit soort tools om moet gaan en je instructies moeten nog steeds erg duidelijk zijn. Al wordt dat ook steeds beter. Gezien de huidige ontwikkeling denk ik wel dat het verstandig is om alles nog even wat meer tijd te geven voor de doorsnee consument om goed in te kunnen zetten. Maar het is wel duidelijk dat de basis is gelegd voor meer. Dat de chatbots waar je nu tegen praat bij bv een support afdeling, straks een stuk slimmer worden. Dat je medische vragen kunt stellen en iets krijgt waar je toch wat mee kunt (en uiteraard moet je het nog valideren met je arts, maar het is fijn om in ieder geval te weten waar je aan toe bent en wat je ondertussen kunt doen), dat je bepaalde zaken kunt oplossen zonder dat er een mens aan te pas moet komen. Dat je wat financieel of juridisch advies kunt krijgen en bepaalde inzichten krijgt waar je daadwerkelijk wat aan hebt.

De meeste vragen die mensen stellen zullen nog prima te beantwoorden zijn door Google of anderen, maar de diepgang kan nu best door chatbots vervuld gaan worden. Mits je de goede input geeft, de juiste kaders stelt en het gesprek kunt sturen waar hij het meeste resultaat oplevert.

En ja, even leek het alsof je er fantastisch veel dingen mee kon doen, maar later bleek dat het toch wat meer beperkt was en toch een beetje hallucinatie. Maar wel is duidelijk dat hier een goede toekomst is en we binnen korte tijd een grote stap gaan maken in hoe we communiceren, samenwerken en welke taken we voortaan kunnen automatiseren. Als Tweaker is het de zaak dit zo snel mogelijk uit te vinden, omdat het je een streepje voor oplevert. En wie weet ontdek je nieuw werk waar je veel meer plezier in hebt dan wat je nu doet.
De meeste vragen die mensen stellen zullen nog prima te beantwoorden zijn door Google of anderen, maar de diepgang kan nu best door chatbots vervuld gaan worden.
De olifant in de kamer is dat de meeste menselijke communicatie helemaal niet zo intelligent of moeilijk is. De meeste teksten en gespreken bestaan voor het grootste deel uit vulling. Zelfs binnen een zin zijn er typisch maar een paar woorden echt belangrijk en de rest vullen we vrij aan en het doet er haast niet toe wat je precies zegt of schrijft.

De meeste vragen die mensen hebben zijn al heel vaak gesteld en beantwoord. Je hoeft niet intelligent te zijn om dat zelfde antwoord nog een keer te geven als je maar een goed geheugen hebt. Baby's en demente bejaarden lijken vaak veel helderder en alerter dan ze echt zijn omdat ze snel op de "juiste" manier reageren, terwijl er geen intelligent achter het gedrag zit maar alleen maar instinct en aangeleerde reflexen. ("draai je hoofd, kijk naar de ogen, lach, zeg iets over het weer!").
Ik gebruik ChatGPT-4 op dagelijkse basis voor zowel werk als privé. Het is voornamelijk een tijdbespaarder. Als ik een tekst moet schrijven, kan ChatGPT-4 al snel een suggestie doen en het taalgebruik controleren. Ook inhoudelijk is het zeer sterk. Als ik bijvoorbeeld een stuk moet schrijven over een ziekte, heeft ChatGPT-4 het voor 90% gewoon goed. Het bespaart me veel tijd om alles niet zelf op te schrijven. Nu kan ik de tekst hier en daar wat verbeteren of nuanceren, de volgorde aanpassen en klaar.

Af en toe vraagt een kennis van een technische opleiding om een ingewikkelde algoritme door ChatGPT te halen om een fout op te sporen. Vaak vind je al snel het probleem.

Ik denk dat veel studenten nu klaar zijn en het minder gebruiken gedurende de zomervakantie. Daarnaast zal ook de nieuwigheid er wel een beetje af zijn. Google moet zeker wel voorzichtig zijn. Ik denk dat mensen gewoon het beste gaan gebruiken, als dat ChatGPT is, dan zal dat het meest gebruikt gaan worden.
Het is maar wat je ermee doet, zo was ik recentelijk op zoek naar een specifieke CEO waarvan mij enkel nog bij stond wat hij deed en waar hij vroeger werkte, met een paar prompts had ik zo zijn recente CV. Zo gebruik ik het ook met enige regelmaat als ik een ietwat lastige formule heb met excel, ja dit kun je ook via Google vinden maar chatgpt geeft mij toch wel nagenoeg direct precies wat ik zoek.

Omgekeerd, recente markt informatie is er niet. Ook geeft het met enige regelmaat rare antwoorden op technische vragen.

ChatGPT is mooi maar je moet wel weten waar je naar zoekt en het kan geen kwaad om antwoorden te verifieren. Ter voorbeeld had ik eens een prompt gedaan naar een generiek bedrijfsnaam en daar kwam een antwoord op terug met betrekking tot een bedrijf in de US terwijl ik op zoek was naar een soort gelijk genaamd bedrijf in Nieuw Zeeland.
Ben dat toch anders gaan zien, vooral binnen mijn beroep, het programmeren, maakt het (wanneer je duidelijk bent) heel snel een boilerplate waar je verder op kan borduren. Gezien de huidige context window limitatie (4000 tokens) kan het inderdaad geen geweldig complexe dingen maken, maar het kan zeer zeker wel een basis leveren zonder dat ik zelf complete documentatie moet doornemen.

Verder ben ik het ook niet eens dat het geen inhoudelijke vragen kan beantwoorden, er zijn meerdere papers die laten zien dat ChatGPT toch wel aardig kan scoren in tests (dat is het beantwoorden van vragen). Je moet inderdaad momenteel wel de limitaties weten (als ChatGPT dingen niet weet, verzint hij vooral leuk uitziende tekst) maar als je daar mee om kan gaan, en gerichte vragen stelt werkt hij naar mijn idee prima.
Helemaal eens. We gebruiken GIthub CoPilot X en Chat GPT als ondersteuning bij het ontwikkelen en de resultaten beginnen in sommige gevallen echt goed te worden. De verbeteringen zijn maand op maand merkbaar en vooral is goed te merken bij CoPilot dat ie inmiddels onze code base structuur redelijk kan interpreteren. Vooral bij het schrijven van boiler plate code scheelt het gigantisch maak je een nieuwe cs file aan met een bepaalde naam en krijg je als suggestie bijna exact wat de eerste code zou zijn in zo'n file.
Ook refactor werk van grotere stukken van de codebase gaan vrij goed.

Het was in het begin wel gigantisch wennen en ik denk zelf dat we nog lang niet alle functionaliteit optimaal gebruiken.

Chat GPT gebruiken we verder om te brainstormen en om bijv een presenatie outline te maken voor bepaalde onderwerpen. Wanneer je goede prompts leert maken en de juiste vragen leert stellen dan zijn de resultaten gezien de doorlooptijd fantastisch.

Maar voor al deze technologie geld nog steeds dat je wel moet blijven controleren en ook geen wonderen moet verwachten.
Gpt4 is het niet helemaal met je eens:
Het is waar dat ik, als GPT-model, mijn informatiebase heb die is getraind op een grote verscheidenheid aan teksten en documenten tot en met september 2021, en dus geen toegang heb tot real-time internetdata of de mogelijkheid om dingen na die datum op te zoeken. Dat betekent inderdaad dat ik geen huidige gebeurtenissen kan opzoeken of bijgewerkte informatie kan verstrekken na de afgesneden datum.

Toch zou ik het oneens zijn met het idee dat ik niet in staat zou zijn om inhoudelijke vragen te beantwoorden. Hoewel het klopt dat ik het beste functioneer als ik feitelijke informatie krijg en op basis daarvan complexe ideeën en verhalen kan genereren, kan ik nog steeds aanzienlijke inzichten en informatie leveren op basis van de gegevens waarop ik ben getraind. Ik kan vragen beantwoorden over historische gebeurtenissen, wetenschappelijke principes, literaire analyse, en meer, tot op zekere hoogte. Het is echter belangrijk om op te merken dat ik niet perfect ben en dat mijn antwoorden altijd moeten worden geverifieerd voor nauwkeurigheid.

Het is zeker waar dat ik geen vervanging ben voor direct menselijk onderzoek of expertadvies, en gebruikers moeten altijd hun eigen kritisch denken en oordeel toepassen bij het gebruik van mijn output. Je suggestie om de feiten aan te leveren en GPT te laten genereren is een geweldig idee, en is een van de meest effectieve manieren om mij te gebruiken.

[Reactie gewijzigd door pim op 23 juli 2024 07:47]

Gpt4 is het niet helemaal met je eens:
Dit is een demonstratie van de valkuil in werking. GPT produceerd prachtige teksten en vaak kloppen ze inhoudelijk wel zo ongeveer maar je kan er echt niet op vertrouwen. Ook dit antwoord. De taal is prachtig en het meeste van wat er in staat klopt wel zo ongeveer. Maar mensen beoordelen een tekst meer op de vorm dan op de inhoud. Als je goed kijkt staat deze tekst vol met waarschuwingen die grenzen aan tegenstrijdigheid. Ja, soms komt GPT met goede antwoorden, maar je kan er niet op vertrouwen.

Het begint met touwtrekken over menselijk taalgebruik en de exacte betekenis van woorden en zinnen. GPT suggereert in dit antwoord dat het wel inhoudelijk antwoorden kan geven maar komt vervolgens met allerlei voorwaarden en beperkingen en waarschuwingen.

GPT kan heel veel, maar vertrouw het niet met vragen waarvan je het antwoord niet weet of niet eenvoudig kan controleren.
Kortom, vergelijkbaar met een junior medewerker. Geen ervaring, alleen theoretische kennis, en weet het goed te presenteren. Alleen doet het GPT het 100x sneller, kost vrijwel niets, en blijft gerust verbetering op verbetering doorvoeren.

En GPT zegt dat het niet 100 procent betrouwbaar is en dat AI zijn beperkingen kent. Een medewerker beweert gerust het tegenovergestelde... 8)7
Sorry dat is neit juist, gpt kan juist wel inhoudelijke vragen beantwoorden
Vandaar dat ik het vreemd vindt dat Tweakers ChatGPT een geduchte concurrent noemt voor de Google zoekmachine... Dat is exact waar ik ChatGPT niet voor gebruik. Wel voor zaken waar een taalmachine heel goed in is: mails, code, samenvattingen, presentaties.
tekst speelt een belangrijke rol in de mensheid en bijv Anthropics GPT-variant heeft nu al een contextvenster van ongeveer 75.000 woorden. dat die in minder dan een minuut doorspit en een inhoudelijke antwoord/analyze terug geeft.
Ik wacht op dat het actueel is. Mogelijkheden leren verkennen de laatste tijd maar zolang de database nog tot 2021 loopt hebben we er weinig aan.
https://www.youtube.com/watch?v=-4Oso9-9KTQ

Dit filmpje van Kyle Hill heeft me doen inzien dat ChatGPT totaal niet "slim" is, en waarom die constant foute informatie geeft.

Als het puur gaat om informatie opzoeken is het echt de verkeerde tool.
Het is in de basis een woordassociatie tool. Bijvoorbeeld: is het sentiment van dit woord positief of negatief.
Post schat volgens CNBC dat ChatGPT ongeveer 51 miljoen unieke bezoekers had in juni, elf procent minder dan in de maand ervoor.
Wat ik me dan meteen afvraag als ik dit lees, is hoe weet, of schat, deze meneer Post eigenlijk dat er 51 miljoen bezoekers zijn geweest in juni?
Volgens het rapport (https://business.bofa.com...trends-impact-report.html) baseren ze zich op cijfers van Similarweb (https://business.bofa.com...trends-impact-report.html). Daar zie je inderdaad een afname van het aantal bezoekers. Similarweb zegt zelf zeer betrouwbaar te werk te gaan.
Studenten zijn klaar met opdrachten/projecten dus er is minder vraag naar.
echt, we leven in een wereld waar we dus niet meer alles zelf opzoeken qua informatie.
En alles overlaten aan een machine, en alleen bepaalde mensen dus nog de Ai voeden met nieuwe taal/data.

jammer voor de nieuwe generaties vind ik, goed ik ben nog van de oude garde.
Waar je nog zelf alles moest opzoeken, rekenen zonder rekenmachine etc.

[Reactie gewijzigd door theduke1989 op 23 juli 2024 07:47]

> echt, we leven in een wereld waar we dus niet meer alles zelf opzoeken.

Dat gebeurde allang niet meer, ook niet door serieuze wetenschappers. Mijn vrouw heeft een PhD Middeleeuws Latijn gedaan: elke secundaire bron die over een bepaalde 9e eeuws handschrift ging bevatte dezelfde fout, die terugging op een grove fout in de enige vertaling van het werk uit de 19e eeuw. 120 jaar lang werd de fout klakkeloos overgenomen door elke volgende persoon die het handschrift aanhaalde, omdat niemand het origineel meer had bekeken. En ze kwam ook meerdere keren tegen dat voetnoten herhaaldelijk waren overgenomen, maar consequent naar dezelfde verkeerde bladzijde verwezen (het verwees dan naar bladzijde 39 maar het moest 49 zijn). Dus de voetnoten werden overgenomen voor de bronvermelding, maar het werk was duidelijk niet zelf gelezen.
Als 1989 je geboortejaar is dan ben je echt niet van de oude garde hoor ;)
Jij hebt niet echt leren rekenen immers, want je mocht een grafische rekenmachine gebruiken. Of allerlei zaken opzoeken ipv uit je hoofd te stampen.

Tijden veranderen. Het maken van goede prompts gaat straks een serieuze skill worden, ipv leren hoe je compleet zelfstandig een standaardwerk produceert.
1983 hier. Op de basisschool was het hoofdrekenen. Op de havo een speciale rekenmachine voor tan, sin, cos. Je gaat toch niet verwachten dat als je hulpmiddelen kan gebruiken deze niet gebruikt en je 10x langzamer bent. Beetje paard / auto vergelijking.
EN nu komt daar AI bij,geen verschil met al het voorgaande.
Een rekenmachine geeft de exact juiste nummers. Die AI verzint zelf willekeurig de nummers.
Taal is geen wiskunde/rekenen. De manier waarop (volgende karakter berekenen (taal)) en wiskunde kan niet samen. Er zou een aparte module/plugin gemaakt moeten worden die kan rekenen.
Dat is niet juist, gpt is niet zo nauwkeurig maar zeggen dat het gewoon alles verzinnen is zeggen dat als jij hoofdrekenen doet je erop los verzint.
Het kan bijvoorbeeld volhouden dat 310/10 dus dichter bij 12 ligt, dan bij 31…
De boel dan bijvoorbeeld explodeert omdat je iets van 31 volt op iets dat maar 12 volt aankan zet

[Reactie gewijzigd door Weicool op 23 juli 2024 07:47]

lol dat slaat nergens op.

Nogmaals gpt4 redeneert gebaseerd op eerdere ervaringen , net zoals wij dat doen. Tuurlijk zijn er daar grote verschillen in maar nee die "verzint" die antwoorden net zo min als wij dat doen.

EN ja die is soms fout daar moet je bij deze tool mee leren omgaan.

Btw: die doet dat nu gewoon correct hoor.

[Reactie gewijzigd door k995 op 23 juli 2024 07:47]

vind ik.....

De overdaad aan informatie is gewoon erg groot, daarnaast is het tegenwoordig ook lastig om feit van fictie te onderscheiden. Dat was in die goede oude tijd niet toen konden wappies nog niet echt een boek schrijven of een scriptie, tegenwoordig heb je zomaar een redelijke uitziende site waar je de bullshit als waarheid kan verkopen. Dus het is niet verwonderlijk dat er systemen komen die het benodigde bij elkaar kunnen zoeken.

tja jammer. Tis mooi dat meer informatie te vinden is, helaas neemt dat ook beperkingen mee.
Ja, vanaf september zal het wel weer flink toenemen.
Puur de hype. Kijk maar naar de blockchain. Was het helemaal! nu hoor je er niet meer zoveel over. Naast de munten dan.
Deels, al mijn vragen aan Chatgpt gingen over code schrijven. Niks wat het produceerde werkte, niet eens na 10 iteraties dus bespaar mezelf de tijd en zoek het zelf wel uit haha!
Functionaliteit als code schrijven wordt ook meer en meer overgenomen door andere AI's naast de "native" ChatGPT. GitHub copilot is extreem goed in wat het doet, zeker voor 10 euro per maand. Wel nog niet echt te gebruiken voor productiedoeleinden aangezien ze momenteel al je data naar de US sluizen... :)
Vind je? Ik heb die Co-Pilot GPT beta draaien, maar die is beduidend minder goed dan GPT-4.

Betreft het nieuws; ik hoop dat het zo blijft, want ik denk dat een hoop "n00bs" nu klaar zijn met resources gebruiken om domme memes te maken en te kijken hoe ze het systeem kunnen misbruiken, en dat het gewoon kan dienen waar het voor bedoeld is. Ik vind het persoonlijk een hele fijne sparringspartner voor creatief schrijven zowel als code. Het is een interactieve rubberduck.
Zelfs GPT-4 kent nu meerdere varianten, zoals gpt-4-0613 en gpt-4-0314, waarbij mensen op Reddit volop beweren dat die laatste versie veel slechter is geworden.
Denk ook dat het nooit te gebruiken wordt voor productiedoeleinden.
Naast dat alles wat jij er in opgeeft meteen naar de US wordt verzonden, is de interessantere vraag met productiecode denk ik; waar komt de code die het ding uitspuugt vandaan?
Die code komt toch ergens vandaan. Deels gegenereerd misschien, maar wel op basis van de trainingsinput?

Van wie is die code dan? Niet door jou geschreven, dus jij (of indien contractueel overeengekomen je werkgever) hebben dan ook niet het auteursrecht van die code?

Loop je dan niet het risico dat ChatGPT of Copilot een stuk GPL code herhaalt, waarmee jij vervolgens acuut het stuk dure gelicentieerde software van je werkgever waar je aan werkte even ook open source hebt gemaakt?
Het auteursrecht probleem is een hele belangrijke vraag.
Code die je schrijft terwijl je werkzaam bent bij een werkgever is sowieso eigendom van die werkgever.
Je kan van alles in je contract (laten) zetten, daar kun je niet omheen.
Sterker nog, je werkgever kan zelfs de code claimen die je privé schrijft, buiten werktijd.
Alleen het laatste puntje geeft je enig aanknopingspunt om het voor je zelf te claimen.
Waren het niet dat er al te veel jurisprudentie is waarbij dat laatste effectief niet in beschouwing word genomen en het werk alsnog aan de werkgever werd toegewezen.
---------------------
Voorwaarden werkgeversauteursrecht
De arbeid moet in dienst van een ander zijn verricht. Er moet dus sprake zijn van een arbeidsovereenkomst in de zin van artikel 7:610 BW.
Het maken van werken moet behoren tot de taakomschrijving van de werknemer. Een uitzondering hierop is de situatie waarin de werknemer een incidentele uitdrukkelijke opdracht van de werkgever tot het maken van een of meer bepaalde werken heeft aanvaard.
Het is niet doorslaggevend of de werknemer het auteursrechtelijk beschermde werk onder werktijd of in privétijd maakt. En evenmin is het van belang of het tot stand gebrachte werk tot enig nut voor de werkgever dient.
De werkgever moet een zekere zeggenschap hebben over de vorm waarin het auteursrechtelijk beschermde werk tot stand komt.
Zal vast over een jaar veel beter zijn idd!

Vond het heel vreemd dat "hij" me vanalles kon vertellen over hoe iets werkt (aansturing van een pomp in dit geval). Kon me ook laten zien hoe je het eea kan aanpassen, maar de code die hij voorschotelde werkte in de kern niet, terwijl hij het standaard voorbeeld van de fabricant had laten zien. Daar wees ik hem op, zo van, in je voorbeeld staat het goed. Allemaal excuses ed (wat echt heel raar overkomt van een ai in mijn optiek) en het dan ALSNOG verkeerd doen :P

Uiteindelijk de broncode gepakt en die wat verknipt en het werkte binnen een uur. Heb de werkende code aan hem gegeven en verteld dat dit werkte, heel mooi was het antwoord haha. Hopelijk slaat hij het ergens op en gebruikt het als reverentie later...
Hm, interessant. Bij mij was het juist wel goed, gebruikte je hiervoor 3.5 of 4? en in welke taal (programmeer taal) ging het over?
Naja met gpt4 was het bij mij ook nooit in 1x perfect. Vaak toch nog even wat kleine aanpassingen hier en daar doen. Maar ik gebruik het nog steeds, want het kan toch een hoop boilerplate e.d. voor me schrijven en dat is al pure winst.
Is het ook niet voor gemaakt. Het scoort bij de HumanEval python test voor de helft van de unit tests in 1 keer goed (0 shot) bij GPT-3.5 en voor 2/3e van de unit tests in 1 keer goed (0 shot) bij GPT-4. En dit succespercentage neemt af hoe meer wat er gevraagd wordt niet op standaard python boilerplate code lijkt.

[Reactie gewijzigd door Weicool op 23 juli 2024 07:47]

Tja, waar is het wel voor gemaakt. "We’ve trained a model called ChatGPT which interacts in a conversational way. The dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests."
Ik vraag het dingen te doen in een gesprek. Heen en weer. Als het een fout maakt en ik geef het aan verbeterd die zichzelf, enz. Dat het veel fouten maakt klopt. Of nouja, ik vraag het een bepaald stuk code te genereren en het doet op zich alles goed. Alleen stubt die dingen weg achter een methode of een dependency die dan weer neit wordt gegenereerd. En de code die wordt gegenereerd is vaak nog wel functioneel correct, maar dan zodanig verbose/omslachtig uitgewerkt dat er betere manieren zijn.
Persoonlijk gebruik ik het dus ook meer voor de boilerplate code en de echt belangrijke zooi doe ik zelf wel.
Het was code voor Esphome, was ook zeker een test omdat ik nieuwschierig was. Uiteindelijk zoals ik hierboven ergens getypt heb, alles zelf gedaan met de broncode en dat werkte prima.

Is wel een maand of 3-4 geleden dus kan best nog 3 of 3.5 zijn geweest! Wat heel raar was, is dat ik expliciet de versie van Esphome eerst heb laten weten, toen een uitleg gevraagd over de producten die ik wou aansturen. Dit ging allemaal vlekkeloos, in een paar seconden. Maar het daadwerkelijke samenvoegen was toch wel heel lastig voor hem!

De volgende itteratie van mijn wanddimmer ga ik toch maar weer zelf coden (ik ben absoluut geen coder haha).
Precies dit, voornamelijk via de Edge integratie gebruik van gemaakt, simpele vragen naar bepaalde scripts oid. Kwam met heel globaal antwoord of verwees / zoekactie uitgezet via Bing wat niet gewenst script opleverde. Meerdere keer geprobeerd, uiteindelijk zelf gaan googlen en forums rond gezocht en vond 9/10 keer wat ik wel zocht...
ChatGPT is wat ik noem een general purpose systeem, als je iets wilt gebruiken voor het genereren van code kan je beter kijken naar GitHub Copilot of Amazon Code Whisperer, deze zijn veel meer getraind specifiek voor dit doel en functioneren vaak ook beter.

ChatGPT laat heel mooi zien wat er mogelijk is maar verliest zijn kracht wanneer het om hele specifieke zaken gaat om dat het generiek is. Ik verwacht persoonlijk veel meer toepassing specifieke generatieve modellen voor bijvoorbeeld software ontwikkeling, recht, medisch e.d. die getraind zijn op bepaalde kwaliteit bronnen.

ChatGPT is getraind op een hele brede dataset van boeken, webpagina's, Source code repositories, etc.. ik weet niet of dit alleen maar curated bronnen zijn of misschien zelfs wel publieke forums en mogelijk zelfs sociale media platformen, dan gaat er ook een hoop rommel in.
Jahh copilot werkt wat beter, en codegen van Salesforce werkt redelijk op python. Mits je bij codegen ook op de manier gebruikt waarop hij getraind is.

Uiteindelijk is de performance van deze soort code synthesis een mooie verbetering op bestaande oplossingen. Vooral omdat de specificaties die je meegeeft ook beter worden gevolgd.
Mijn ervaring is anders, maar misschien zijn mijn verwachtingen ook anders. Met zowel 3.5 en 4 lukt het mij heel goed om in korte tijd (voor mij) complexe code te schrijven. Ik ben autodidact wat betreft mijn codeert skills in R, dus mijn code is verre van optimaal en ik moet vaak zoeken op Google naar de code/functies/benodigde packages/etcetera terwijl ik in mijn hoofd heel goed weet wat ik wil dat de code doet. Als ik dat plan dat ik heb in detail en met dummy namen voor datasets en objecten aan ChatGPT voer krijg ik meestal direct een stuk code dat voor 95% werkt of ik kan aan de code zien waar mijn prompt niet specifiek genoeg was. Prompt specifieker maken en regenereren van de response of het terugkoppelen van een eventuele error die ik krijg levert meestal binnen enkele iteraties goed werkende code op.
Zo heb ik met hulp van ChatGPT binnen een middagje een paar duizend regels aan R code kunnen herschrijven, optimaliseren, en het laatste deel af te maken, terwijl het mij maanden gekost had om mijn originele code met hulp van Google en zelfstudie te schrijven.

Misschien dat het anders is bij andere gebieden dan R en mijn specifieke doel, maar ik denk dat juist omdat code een taal is en ChatGPT heel goed is met taal, het inzetten van ChatGPT mij ontzettend veel tijd gescheeld heeft.
Haha, R is echter waarbij het meeste regel voor regel gaat en helemaal niet complex is.
Zo was mijn eerste code inderdaad. Maar dan kan het ook snel gebeuren dat een kleine fout in de code geen foutmeldingen of duidelijke fouten in de output geeft, maar een heel stuk later ineens wel voor problemen zorgt.
ChatGPT heeft mij geholpen om vele bewerkingen te automatiseren en andere stukken om te schrijven naar dynamische functies, zodat het veel beter reproduceerbaar werd en minder foutgevoelig.
Hoe het ook zij, ik heb er in elk geval veel voordeel van gehad.
Grote kans dat het aan je manier van probleem omschrijving ligt. Niet dat ik je daarmee meteen de grond in wil boren, zo bedoel ik dat niet. Maar als ChatGPT het probleem niet snapt komt er vaak ook vreemde response uit.
Tot op heden heb ik een enkele keer gehad dat de code heel vreemd was en niet draaide, maar over het algemeen krijg ik er toch wel uit wat ik hem vraag. Soms na een aantal iteraties inderdaad maar een goede omschrijving werkt vaak het beste. Het begint met duidelijk afkaderen van de context vaak.
Dat is het waarschijnlijk ja! Heb na alle berichten een vriend gevraagd die dev is voor mobiele apps en die kwam een heel stuk verder. Ik zal wel iets te open vragen stellen!
Same, Op zich werkt de code genereren wel ok. Hier en daar een fout maar genoeg kennis en hoppaa werkt weer.

Ik ben gewoon af en toe te lui om een stuk code zelf te schrijven :) En de uitkomsten van ChatGPT zijn prima om van te leren. Geeft je toch een andere kijk op hoe code geschreven kan worden
Ligt dan wellicht aan jouw vragen of het domein, hier werkt het uitstekend en neemt het veel werk uit handen. Dankzij ChatGPT hebben we hier weer een normale werkdruk. Het simpele en domme werk wat wel tijd kost maar niemand zin in heeft, laten we grotendeels door de chatbot doen.
GPT code neem ik met een korrel zout (net als andere code die ik online tegenkom.) Voor mij is het vooral een hele nuttige rubberducker en als een slim naslagwerk een bron van inspiratie.
Dat is wel vreemd. Een vriend van mij heeft er een hele app mee gebouwd die naar vinyl muziek luistert en vervolgens op je iPad / iPhone het album laat zien (na herkenning via Shazam onder water via een api) icm allerlei relevante artiesten informatie bij elkaar sprokkelt. De details weet ik niet maar hij heeft het allemaal middels python aan elkaar geknoopt en had node 0 programmeer skills en ik moet zeggen dat het er erg leuk uitziet met links en recht nog wat improvements te gaan.
Nouja, blockhain was een hype omdat je er 'rijk' mee kon worden en dat er misschien wel mooie usecases zouden komen. Die zijn er tot heden niet. ChatGPT heeft wel een usecase en dat zal het over een paar jaar nog steeds hebben.

Chat GPT was wel even een hype omdat iedereen het opeens wou proberen omdat het nieuw was. Maar het zal gebruikt blijven worden en de vergelijking met blockchain gaat niet op.
Wellicht of natuurlijk is een deel hype. Maar de data is ook niet up-to-date tov een zoekmachine welke dagelijk indexeerd. Voor sommige zaken is dit geen probleem. Voor andere meer actuele of snel veranderende zaken loop je (ik) daar tegen aan. De dataset is het laatste bijgewerkt in September 2021.
Technologische ontwikkeling begint al ruim voor een publieke hype en gaat ook gewoon door wanneer de hype weer inzakt. Hype is nieuwigheid, het zoveelste dingetje wat mensen hun aandacht even vluchtig trekt tijdens het scrollen. De ene keer is het AI, de volgende dag is het een tiktok challenge. Op hype afgaan als indicator voor de levensvatbaarheid van iets is een vergissing.
AI ontwikkeling gaat gewoon door, net zoals blockchain en ar/vr.
Nou begint Silicon Valley ook wel een beetje wanhopig te worden. Vooral met "Metaverse" was het merkbaar. Consumenten wilden er vanaf het begin niet aan, niemand snapte het, en toch was alles ineens "Metaverse" en werden er miljarden ingepompt. Twee jaar later is het een vloekwoord geworden waar investeerders hard van weglopen en consumenten met hun ogen beginnen te rollen.

Het begint gewoon te knijpen voor big tech. Smartphones zijn niet spannend meer, het internet is niet spannend meer en alles begint te stagneren. Ondertussen worden overheden steeds critischer op deze partijen en worden er steeds hogere boetes uitgedeeld en beperkingen opgelegd.
Ze zijn wanhopig om weer als innovators gezien te worden, dus word iedere nieuwe technologie met veel bombarie aangekondigt en lang voordat het nuttig is op de markt gepleurt. Alles moet de nieuwe iPhone worden. Niet omdat dat waarschijnlijk is, maar omdat Silicon Valley dat nodig heeft.
Zullen we even wachten met de hypeconclusie tot de scholen en universiteiten wereldwijd weer begonnen zijn en de eerste scripties weer gemaakt moeten worden?
Niet heel verwonderlijk, het nieuwtje is er eerst af.
Dus nu weer zakkende en dan zal het wel stabiliseren. Redelijk normaal lijkt me.
Hier toch al een paar keer nuttig gebruikt om een powerpoint te maken.
Bv "wat zijn de voordelen van xxx te gebruiken" en dan krijg je een mooie waslijst.
Voor code ook al gebruikt en niks werkt out of the box maar je hebt toch een basis code waarmee je verder kan. Al bij al heeft het me al redelijk wat tijd bespaart.
Volgens mij dreigen ze de laatste boot te missen omdat zo nodig een registratie vereisen. Dat kost waarschijnlijk een gigantische hoeveelheid bezoekers. China lijkt veel verder en Amerikaanse zoekmachines lijken dat te verbergen.
"ChatGPT voorlopig geen geduchte concurrent zal worden voor de Google-zoekmachine"

Chat GPT: welke versie? Als het over 51 miljoen unieke bezoekers gaat, lijkt me dit de gratis versie, 3.5? Dat is toch compleet niet te vergelijken met Google en dient een compleet ander doel?

Dat het terugloopt is om meerdere redenen logisch:
- het nieuwe is er af
- het is zomer/vakantie
- de gratis (3.5) versie biedt lage kwaliteit (verzint dingen) en heeft geen internettoegang
- het is een LLM: het aantal scenario's waarin dat echt een nuttige tool is is beperkt

Op dit item kan niet meer gereageerd worden.