OpenAI opent GPT Store met customchatbots volgende week

OpenAI wil zijn GPT Store volgende week alsnog openen. Het bedrijf had de release van de chatbotwinkel in december nog uitgesteld om bepaalde verbeteringen door te voeren, maar zei niet tot wanneer.

ChatGPT-chatbotmakers, waaronder diverse tweakers, hebben een e-mail gekregen van OpenAI waarin staat dat de GPT Store 'volgende week' opengaat. Een definitieve datum is nog niet bekend. OpenAI raadt chatbotmakers, die het 'GPT Builders' noemt, aan om de nieuwe gebruikersvoorwaarden en merkrichtlijnen nogmaals door te lezen. Ook moeten Builders hun profiel verifiëren en hun chatbots publiek beschikbaar stellen als ze willen dat die in de Store worden opgenomen.

OpenAI maakte tijdens een ontwikkelaarsconferentie in november al bekend dat programmeurs zelf AI-chatbots konden bouwen op basis van taalmodel GPT-4. Die chatbots kunnen ze in de toekomst in een aparte appwinkel aanbieden, waar ze ook tegen betaling of met een abonnement kunnen worden aangeboden. Die chatbot moet al in november uitkomen, maar OpenAI stelde de release uit tot 'begin 2024'. Het bedrijf zei eerst verbeteringen te willen doorvoeren, zonder daarover in detail te treden.

GPT store

Door Tijs Hofmans

Nieuwscoördinator

05-01-2024 • 10:08

56

Submitter: IMarks

Reacties (56)

56
55
16
2
0
27
Wijzig sortering
Het blijft voor mij onduidelijk wat het voordeel is van verscheidene GPT's en waarom ChatGPT(-4) niet gewoon alle functies zou moeten kunnen.
Ik ben nu al een tijdje premium gebruiker en maak gebruik van de 'reguliere' ChatGPT-4, Dall-E en de Data Analytics GPT. Verder zijn voor premiumgebruikers bijvoorbeeld ook aparte GPT's beschikbaar voor het uitleggen van spelletjes en het helpen met je beter te laten schrijven. Echter is het mij nu niet helemaal duidelijk waarom deze opgesplitst moeten zijn. Zou iemand mij hier meer inzicht in kunnen geven?
Ik gebruik zelf veel GPT’s. Voor mij is het vooral handig omdat ik voor meerdere gebruiksdoeleinden (o.a. script en schrijven en beschrijvingen voor video’s) elk een aparte GPT kan maken. Zo hoef ik de lange prompt die het voorwerk doet (welke toon aanslaan, welke informatie gebruiken, hoe antwoord presenteren, etc) maar één keer in te voeren bij het maken van de GPT zelf. Daarna is het slechts nog een kwestie van een enkel zinnetje naar de GPT gooien en ik krijg direct het gewenste antwoord. Het bespaart dus vooral veel tijd!
Yep, same here. Ik heb twee GPT's gemaakt, eentje om plaatjes om te zetten naar MarkDown + MathJax en eentje om posts te herschrijven zonder de zinstructuur aan te passen (spelling, MarkDown formatting etc.). Dat zijn heel veel regels die je ChatGPT niet continue wil uitleggen en soms is het ook wel lang zoeken voordat je ChatGPT kan laten doen wat je wilt.

Het idee is dan ook dat ChatGPT ook hier zichzelf leert hoe om te gaan met de GPT. Ik had eerst heel veel problemen met de formattering, maar da's bijna verleden tijd (MathJax met brackets / braces in plaats van dollar tekens).
Bij ChatGPT kun je onder settings custom instructions instellen die gelden voor elke nieuwe chat. Eigenlijk is een custom gpt niet meer dan opgeslagen versie van je custom instructions. Plus een gpt chatbot die je helpt met het finetunen daarvan en een testomgeving. Verder staan er nog wat opties aan of uit (web browsing, Dall-E etc.)
Je vergeet het meest krachtige onderdeel van de custom GPTs: custom actions.
Daar hoor ik weinig over, net even opgezocht; https://platform.openai.com/docs/actions

Ben wel benieuwd, waar/hoe zie jij de kracht van custom actions?
Wanneer gaan die chatbots op websites eindelijk eens een keer een ticket gaan oplossen in plaats van je naar het kastje naar de muur te sturen.
Juist.
ChatGPT maakt een chatgesprek met de klantenservice aangenamer, maar er gebeurt nog steeds niets: de AI zal echt niet iets in het ordersysteem kunnen veranderen.
Ik zie ChatGPT hooguit de eerstelijns support vervangen, maar daarna zijn er echte mensen met verstand van zaken nodig.
Koppel het via een API aan je ordersysteem, of welk systeem dan ook, en je kan het automatiseren. Ik heb dit binnen twee processen laten doen in mijn vorige team, werkte vele malen beter dan initieel verwacht.
AI zal echt niet iets in het ordersysteem kunnen veranderen.
Nu nog niet, ligt zeker in de lijn der verwachting dat die dat op den duur wel gaat doen natuurlijk.
Net als dat we 60 jaar geleden dachten dat we nu toch al in vliegende auto's zouden rijden/vliegen, met persoonlijke jetpacks naar ons werk zouden gaan en ieder huishouden een eigen robot zou hebben voor het huishouden. De realiteit is anders, op bepaalde vlakken ondenkbaar anders dan men 60 jaar geleden ooit had bedacht, maar op veel andere punten absoluut nog niet op het niveau dat men toen dacht.

Onderzoek/producten vloeien langs de weg van de minste weerstand en die weerstand kan op sommige plekken een heel, heel stuk hoger zijn dan dat de doorsnee mens denkt. In het geval van LLM zoals GPT lijkt hallucineren (het geven van incorrecte of verzonnen informatie) gewoon een consequentie te zijn van hoe het werkt. Not a bug, but a feature. Omdat het geen bug is, valt er niets op te lossen, net zoals water 'nat' is (in de vaste vorm is het ijs, in gas vorm is het stoom). Nu probeert men het 'op te lossen' dmv. filters over de responses heen, dus buiten de LLM af te vangen, maar ook die zijn weer gebouwd op statistische analyse, controle antwoorden van een andere LLM, etc. Dus wellicht dat het product uiteindelijk correctere resultaten levert dan de huidige 24%-46% 'fouten' die het produceert. Maar fouten zal het altijd blijven maken.

Maar hoor ik een hoop mensen roepen mensen maken toch ook fouten en liegen toch ook. Ja, maar het grote verschil is dat als de meeste mensen liegen, ze daar bepaalde hints door laten schemeren. Wij hoeven dat niet direct te zien als een leugen/onwaarheid, maar vaak 'er is wat aan de hand'. Daarnaast heb je te maken met een individu, een vreemde vertrouwen we ook een heel stuk minder dan iemand die we kennen. En bij mensen die we kennen weten we eerder wanneer ze liegen, waarover ze liegen en waar ze wel/niet goed in zijn. Ook zijn mensen bereid te zeggen 'ik weet het niet' of 'ik weet het niet 100% zeker'. LLM kan dat niet, die geeft een antwoord of verzint er eentje en we kunnen niet zien welke van de twee het antwoord is.

Een hele lap tekst, maar daarmee wil ik zeggen dat het helemaal momenteel niet redelijk is om te denken dat de issues met LLM überhaupt opgelost kunnen worden, laat staan dat we ze dingen aan laten passen in kritische systemen. Je geeft toch ook geen admin access voor jouw kritische bedrijfsdatabase aan een pathologisch leugenaar die ook nog eens niet weet waar hij/zij mee bezig is?

Een LLM heeft niet alleen een vaardige prompter nodig, maar ook iemand die het antwoord inhoudelijk kan beoordelen, in veel gevallen zou dat dezelfde persoon moeten zijn. In een helpdesk systeem is de prompter al niet vaardig daarin (in het gros van de gevallen), daarnaast zal deze prompter het antwoord ook niet kunnen beoordelen (in het gros van de gevallen), dus wat schiet je daarmee op? Momenteel en voorlopig zal een goeie FAQ en/of een chatbot die niet draait op een LLM veel juistere antwoorden kunnen geven en als deze het niet weet je kunnen doorverbinden naar een medewerker die wel buiten die voorgedefinieerde vragen/antwoorden kan opereren.
Dankjewel voor deze nuchterheid. Ik ben de "all hail AI/LLM/GPT"-mentaliteit die nu al veertien maanden het internet behelst meer dan zat.

Is het een knappe tool: sure. Heeft het nut, vooral op het gebied van teksten samenvatten en geherformuleerd regurgiteren: absoluut. Vertelt het de grootste onzin en worden er miljarden dollars aan verspild die aandeelhouders eens terug willen gaan zien: reken maar van jetje.

En dat is nog los van de ethische bezwaren, zoals op het gebied van auteursrecht en energieverbruik. Ik zie het na crypto en NFT's als de grootste online zeepbel van deze tijd, en wacht met smart de crash af.

En dan begin ik nog niet eens over de mensen die "teken een bos met elfjes, vleugels, sterrenstof, (((mist)))+++, groen" typen en zichzelf kunstenaar noemen.

[Reactie gewijzigd door CodeCaster op 22 juli 2024 18:06]

Ik heb er 0,0 ethische bezwaren tegen. Zowel qua copyright als energieverbruik. Noch vind ik het een verspilling. Het is nu afwachten wat er uit rechtszaken gaat komen en wat vervolgens de lobbyisten bij de verschillende overheden voor elkaar gaan krijgen om wetgeving aan te passen...

Het is een tool. Hoe die tool wordt gebruikt hangt af van de persoon die het gebruikt en ik ben van mening dat heel veel mensen het verkeerd gebruiken. Net als met Google zoeken. Ze verwachten een correct antwoord, maar dat is de verkeerde verwachting! Je krijgt informatie terug op basis van jou prompt/zoekopdracht, maar je zit nog steeds met de garbage-in-garbage-out. En ook dat is in beide gevallen niet het enige probleem.

Dit is inho ook geen zeepbel, dit is een tool waarvan het gros van de mensheid het verkeerde verwachtingspatroon heeft en de media maakt dit alleen maar veel erger! Die tool gaat niet meer weg, links om of rechtsom. Maar ik verwacht wel dat er op een moment een globaal 'Ah-ha!' moment zal zijn waarbij men collectief tot de realisatie komt wat LLM niet is.

Ik heb sowieso een probleem met mensen die zichzelf een kunstenaar noemen. Maar dat neemt niet weg dat iemand nog steeds wel creatief kan wezen met prompting en diens resultaten. Het is een vaardigheid en die vaardigheid kan prima creativiteit en zelfs originaliteit bevatten. Daarnaast stel je prompting wel heel simpel voor, dat kan je heel complex maken, helemaal als je iets heel specifieks in je hoofd heb...

Jij bent weer de absolute keerzijde van de "all hail AI/LLM/GPT"-mentaliteit.
Ik heb al demo's/presentaties gezien hoe je dat kan maken. Al was dat een simpel voorbeeld, zonder beveiliging en met beperkte mogelijkheden.
Dus dat gaat er zeker aankomen.
Ik zie ChatGPT hooguit de eerstelijns support vervangen, maar daarna zijn er echte mensen met verstand van zaken nodig.
Laat dat nou voor minstens 50% van alle tickets zijn die behandeld kunnen worden. Veel vragen zijn heel erg simpel, zeker bij webshops. Als je een hele 1e lijns afdeling kan bezuinigen hierdoor dan heb je een enorme besparing van kosten. Daarnaast; een AI bot is niet de beroerdste een hele handleiding voor iemand te schijven, de meeste mensen daarintegen wel.

Ik zie er alleen maar voordelen van.

[Reactie gewijzigd door Luchtbakker op 22 juli 2024 18:06]

de AI zal echt niet iets in het ordersysteem kunnen veranderen.
Dat kan dus wel. Maar daarvoor moet iemand wel iets maken. Custom GPTs hebben juist de mogelijkheid om actions aan te roepen.

[Reactie gewijzigd door Naj_Geetsrev op 22 juli 2024 18:06]

Ik heb bij een ISP op de helpdesk gewerkt. Vaak genoeg mensen van het kastje naar de muur gestuurd.
Maar voornamelijk om te kijken of de kabel uit het modem wel was verbonden.

Hoe vaak dat wel niet de oorzaak was van een 'internetstoring'...
"Oh ja ik ging stofzuigen"

Als de AI bots dat kunnen, scheelt het heel wat makkelijk te voorkomen issues
Ik heb wel het idee dat je tegen zo'n ai makkelijker kan bullshitten. Heb ook bij ISP gewerkt, bij vragen of de kabel is gecontroleerd krijg je al heel snel "ja natuurlijk" zonder dat er daadwerkelijk iets gecontroleerd is. Ik sterkte dat dan meestal aan met "ok, dan zal ik een monteur sturen, maar als die constateert dat het een probleem is met de bekabeling en niet de dienst, zal deze in rekening gebracht worden" en dan ineens vinden ze een losse kabel. Ben benieuwd of een AI ook dat soort "psychologische spelletjes" kan spelen.
Waarom zou een AI niet kunnen zeggen:
"ok, dan zal ik een monteur sturen, maar als die constateert dat het een probleem is met de bekabeling en niet de dienst, zal deze in rekening gebracht worden"
Gevolgd door de bevestiging van de klant dat de monteur moet komen? Is niets geen psychologisch spelletje aan, lijkt me gewoon de algemene voorwaarden voor een monteur.
Kwestie van de juiste vragen stellen. Als we de bots goede gesprekstechnieken leren, scheelt dat heel veel.
Mijn truukje was het niet als openvraag te stellen.
"In welke poort zit de kabel?" "uh wan"
"en als u de kabel volgt, waar gaat ie heen?" "Oh hij zit los"
"Nou ja, wat vreemd! Wat compleet onverwacht, dat gebeurt bijna nooit dat ie uit zich zelf los gaat" "Ja, heel vreemd.."

Ook bet betalen. "Heeft u het overgemaakt?" "Ja natuurlijk!"
Dan vroeg ik, "wat is het rekening nummer wat het heen gaat" "Huh ik kan de betaling niet vinden..."

Met de gesloten, sturende vraag voelen mensen zich aangevallen op hun competentie, vinden ze neit leuk.
Met de tweede vraag is dat niet het geval, betrek je ze bij de analyse, en laat je ze autonoom dingen uit voeren en hebben ze het idee dat er iets gebeurt.
OT, toen ik (met medewerking van XS4ALL, dank) Internet aan studenten doorgaf had ik ook een vraag. Bleek het konijn de ethernet draad doorgebeten te hebben :P Vraag me af of een AI zou kijken of er huisdieren rondlopen.
En wanneer gaan chatbots op webshops nou eindelijk eens begrijpen dat ik niet wil chatten met hun.
Hopelijk is een stap in de goede richting. Ik erger me ook kapot dat websites je heel erg sturen om met een bot te communiceren om vervolgens alleen standaard antwoorden te geven. We gaan het zien!
En hoe denk je dat dat gaat als de meeste tickets beginnen met: het werkt niet

Zo'n chatbot kan er in eerste instantie voor zorgen dat het ticket voldoende informatie heeft, om het vervolgens door te sturen naar iemand die er verstand van heeft.
om het vervolgens door te sturen naar iemand die er verstand van heeft.
Juist dat is het gedeelte wat veel sites, voornamelijk winkels, hebben weggeautmatiseerd.

Chatbots lijken enkel nog te bestaan om een FAQ voor te lezen en tijd te verspillen zodat klanten hun vragen maar opgeven. Het is verplicht om een contact punt te dus veel bedrijven misbruiken chatbots als muur, om de barriere tot hulp zo hoog en goedkoop mogelijk te maken door mensen eerst 10 minuten in cirkels te sturen en te forceren een generieke dialoog boom door te gaan en je daarna alsnog in een wachtrij van 30+ minuten te zetten
Of je probeert contact op te nemen met, ik noem maar wat, Booking.com. On-fucking-mogelijk om een competent persoon aan de lijn of op de chat te krijgen, ook niet als Genius Level 3. Allemaal Roemenen en Tsjechen die antwoorden uit een kennissysteem copy-pasten en je melding sluiten als je te lastig wordt.

Klantenservice kost geld en bestaat niet meer.
Hoe lang nog voordat de mensheid enkel nog met ai of agi zit te communiceren?
Het is lastig om precies te voorspellen wanneer de mensheid alleen nog maar met AI zal communiceren, omdat dit afhangt van verschillende factoren. Op dit moment is AI nog niet geavanceerd genoeg om alle aspecten van menselijke communicatie en interactie te vervangen.

Het is waarschijnlijk dat AI een steeds grotere rol zal spelen in verschillende aspecten van ons leven, zoals klantenservice, automatisering en zelfs gesprekken en assistentie. Maar voor veel menselijke interacties blijft menselijke empathie, begrip en creativiteit cruciaal. Dus, hoewel AI een grote rol zal spelen, is het onwaarschijnlijk dat het alle menselijke communicatie zal vervangen.

Wat wel waarschijnlijk is, is dat AI meer zal worden geïntegreerd in ons dagelijks leven en een grotere rol zal spelen in ondersteunende taken, waardoor menselijke interacties kunnen verbeteren en efficiënter kunnen worden.

Antwoord van ChatGPT :+
Zou handig zijn als ChatGPT of iets anders ook bijvoorbeeld (Windows) logbestanden zou kunnen analyseren, volgens mij kan dit nog niet. Tsja als je het zelf zou kunnen programmeren, er bestaat al wel zoiets al weet ik niet of hier ook iets van AI voor word gebruikt waarschijnlijk niet. Het bestaat dus natuurlijk al wel, net even vlug gezocht. 2e is het even daadwerkelijk te testen in de praktijk enzo.

Als je bijvoorbeeld nu via bing of copilot ofzoiets dergelijks ik weet ook niet of dit al daadwerkelijk volledig gebruik maakt van ChatGPT 4 een vraag stelt krijg je volgens mij altijd antwoord van ik kan dat wel. Maar vaak krijg je gewoon een verwijzing naar website.
Je kunt middels een API GPT-4 prima logbestanden laten analyseren. Ik heb een paar projecten gedaan waar we GPT toegang geven tot verschillende bronnen om analyses en aanbevelingen op te stellen. De aanbevelingen zelf komen niet vanuit ChatGPT, maar zitten ingebouwd in de prompt.
Het kan inderdaad al. Je kunt zelfs een PDF van de logs boven de 128K context window limiet uploaden, maar de technische beperkingen zit hem erin de Transformers algoritmes een O(N^2) algoritme zijn en het voor optimalisatie altijd willekeurige regels verwijderd om binnen de tijdlimiet te blijven. Dus zal het altijd wat over het hoofd zien of gewoon verkeerde classificaties geven.

[Reactie gewijzigd door Minimise op 22 juli 2024 18:06]

Klopt (leuk dat je het ook weet trouwens). Hierdoor hebben we meerdere verificatiestappen in het gehele proces gebouwd om de punten in iedere geval te identificeren.
Ja, je noemt duidelijk 'menselijke' empathie. Maar ik kan mij goed voorstellen dat de kwaliteit van de wellicht nog toekomstige gesimuleerde 'ai' empathie vrij snel dermate hoog is dat deze lastig is te onderscheiden van de 'menselijke'. Waardoor het belang van menselijke empathie, in sommige gevallen, misschien niet eens meer nodig is.
AGI gaat nog wel even duren, dat is echt weer een heel ander beestje dan de 'AI' die we nu hebben.

Maar er zijn nu al mensen die voornamelijk ChatGPT gebruiken om hun werk te doen, met alle desastreuze gevolgen vandien.
Het enige dat je moet vragen na een antwoord van ChatGPT is: "Really?"

En dan begint ie over excuses en dat hij iets over het hoofd gezien heeft.
Ik gebruik het héééél vaak, maar evengoed klopt er niks van wat ie zegt. Helaas.
Het vervelende daaraan is dat hij dan vaak ook denkt dat iets fout was terwijl het wel goed was, of weer hele andere rare dingen begint te verzinnen. Als de informatie die je 'm geeft niet matcht met wat hij zelf weet dan klopt er ook helemaal niks meer van.
Dit is dan weer nadat je AI had die bijna agressief werd als je 'm vertelde dat hij fout zat, dus dat hebben ze eruit gesloopt.

AGI zou wel enige tegendruk moeten geven, zonder dingen te verzinnen, en zonder boos te worden. AGI moet namelijk zélf kunnen redeneren, en dat kan 'AI'/een LLM niet.
Er is iedere paar maanden wel een advocaat in het nieuws die ineens zaken citeert die nooit plaats hebben gevonden omdat iemand onderzoek gedaan heeft via ChatGPT.
De grap is dat het slechts een tool is om geloofwaardige feiten te verzinnen, en niet een tool is om de daadwerkelijke feiten te verkondigen!

[Reactie gewijzigd door Minimise op 22 juli 2024 18:06]

Het probleem is een beetje dar een 'leek' (afhankelijk van het onderwerp) fictie en werkelijkheid door ChatGPT aangegeven als feiten niet kan onderscheiden.

Misschien grappig om het ene taalmodel eens te vullen met de resultsaten van het andere en hierbij vragen of de stelling/gegevens kloppen.
Helpt niet als je het niet eerst met feiten vult. LLM-Grounding noemen ze dat. En dan nog kan het dingen door elkaar halen of dingen vergeten.

[Reactie gewijzigd door Minimise op 22 juli 2024 18:06]

Geef eens een voorbeeld (linkje), ai kon hier namelijk niets voor mij over vinden
https://apnews.com/articl...79d0542db9e1455397aef381c

[Reactie gewijzigd door Wolfos op 22 juli 2024 18:06]

Alleen maar? Nooit.

Maar is het een ramp als je met AI je problemen met Essent, Ziggo, KPN, kunt oplossen i.p.v. met een mens? Volgens mij niet, wellicht dat een AI nog wat betrouwbaarder is aangezien deze geen opleiding nodig heeft, geen informatie hoeft na te lezen, etc. Iedereen heeft wel een verhaal van een helpdeskmedewerker die er niet uit kwam en een belofte dat je later teruggebeld wordt en die vervolgens nooit teruggebeld is, bijvoorbeeld. Dat zijn nu zaken waar ik de komst van AI van harte toejuich.

Laatst moest ik een overlijden doorgeven bij Essent om het contract op een andere naam over te zetten, ging volledig via de chatbot, in enkele minuten gedaan, bevestigd via E-Mail en geen mens (aan hun zijde) aan te pas gekomen, ideaal.
Ik denk dat dat wel mee zal vallen, maar het kan ook een generatiekloof zijn.

Ik ga bijvoorbeeld naar de kroeg (met vrienden) om juist persoonlijke contact met ze te hebben, of om met nieuwe mensen een gesprek te hebben (ik ben 35).
Die gesprekken en contacten zie ik niet vervangen worden met AI, nu niet maar eigenlijk ook nooit niet.

Chatten/Praten met AI zie ik alleen gebeuren om iets functioneels om iets gedaan of geregeld te krijgen, denk aan een chatbot om vraag te stellen over een order (note: de huidige chatbots functioneren hier nog totaal niet goed mee maar dat zal veranderen).

Maar in mijn vrije tijd, gezelschap, dat zie ik niet vervangen worden.
Hoe lang nog voordat de mensheid enkel nog met ai of agi zit te communiceren?
Je weet het nu al niet meer (bijna) , dit gaat groot worden........maar ook weer instorten. Je ziet nu al door de AI bomen het bos niet meer. En we zijn nog maar net onderweg.

Over een paar jaar komt er wss wel een soort van nieuwe trend. AI FREE
"Bij ons krijgt u nog echte mensen aan de telefoon" , of AI FREE APPS
Voorlopig nog niet, of heb je wel eens tegen een chatbot gelult? Uiteindelijk vallen ze allemaal in herhaling, of door de mand.

Heeft echt niks met AI te maken dit. Zou verboden moeten worden om dat woord als buzzwoord te mogen gebruiken.

[Reactie gewijzigd door Marctraider op 22 juli 2024 18:06]

Zou je toch willen vragen om het eens te proberen. Al is het maar voor de fun.

Als ik kijk naar de huidige generaties onder de 40 jaar..
Allemaal opgegroeid met het Internet en de mobiel. Allemaal verslaafd.
De mens kan ook niet meer zonder. Het wordt gewoon geacht.
Zijn we straks nog afhankelijk van elkaar of leven we straks volledig in ai?
Wie kent zijn buren nog? Wie heeft zijn werkgever ooit gezien? etc.
En straks hebben we iets dat meer weet over jou en iedereen dan jij over jezelf.
Maar het geeft ons die dopamine kick en krijgen deels wat we willen.
We willen er meer van. Het wordt gewoon geacht. Waar eindigt dit?
Wetgeving loopt altijd achter. Een rem erop lijkt amper of niet te bestaan..

En ja ik weet dat ik als ouwe nostalgische knakker en doom denker klink. :p
Iedereen kan lezen en schrijven, is dit een "verslaving waar we niet meer zonder kunnen" ? Nope
En ja nog genoeg onder 40 die niet verslaafd aan hun smartphone zijn of er zelfs geen hebben, genoeg boven de 40 die wel verslaafd zijn.

Dit heeft niks te maken met Ai trouwens, verslaving is iets van alle tijden, doemdenken is zelf ook een soort van verslaving btw
Leuk dat je lezen en schrijven aanhaalt. Ik heb zelf een aardige vorm van dyslexie en ben er vrijwel zeker van dat het schrijven er niet beter op is geworden door al die autocorrectie mogelijkheden.

AI kan er steeds meer voor zorgen dat je minder doet of om iets geeft. Ik vroeg je om wat kritischer te zijn maar je neemt de moeite niet eens heb ik het idee. Helaas legt Pixer dit al aan kleuters uit in tekenfilms.

Ik zei overigens dat de mens niet meer zonder kan. Dat is dus net zo voor boven als onder de 40. Het is echter wel zo dat mensen onder de 40 simpelweg geen wereld kennen zonder de mobiel en internet waarbij altijd alles aan staat. En gemiddeld zijn de meeste toch echt dik verslaafd aan de 'connectie'.
Is wel handig voor een dating site als lexa, naast automatische profiel bezoeken en likes die ze nu doen kunnen ze die profielen straks ook zelfstandig met iemand laten praten om er maar voor te zorgen dat mensen blijven betalen
Ik vermoed dat deze onderzoeker de reden is dat OpenAI eerst verbeteringen te willen doorvoeren. De talk gaat over het exploiten van o.a. OpenAI's ChatGPT features (data exfiltration etc.)

https://www.youtube.com/watch?v=k_aZW_vLN24
Hoe kan je zelf eentje maken?
Bij een plus abo kan je op "Explore" drukken of naar je profile gaan, op "My GPTs" klikken en dan op het plusje drukken voor "Create a GPT".
Hebben ze de 'grote' problemen zoals hallucineren, niet logisch kunnen redeneren, rekenen of zelfs tellen etc al opgelost?

Ik ben met alle LMMs opgehouden omdat ik het niet eens voor elkaar kon krijgen om ze artikellen van 1000+ woorden te kunnen laten schrijven.

Het resultaat kwam nooit boven ongeveer 700 worden en op het moment dat ik op verschillende manieren vroeg het langer te maken werden de uitkomsten alleen maar korter ipv langer.

Zijn er in de laatste 3 of 4 maanden echte verbetering geweest? Want voor mij zijn chatGPT en Bard van het niveau van de spullen die je bij de Action koopt, het lijkt functioneel maar de kwaliteit is zo slecht dat het al breekt als je er verkeerd naar kijkt en dus compleet onbruikbaar is.

En voor andere toepassingen, het formuleren van een goede effectieve prompt en daarna verifiëren of wat het antwoord klopt kost net zoveel tijd als iets zelf op/uitzoeken en levert dus geen of nauwelijks winst op.

Het zal voor een groot gedeelte wel aan mij liggen, maar voordat ik (weer) geld aan een LLM uit ga geven moet het eerst een stuk beter en bruikbaarder worden.

[Reactie gewijzigd door Alxndr op 22 juli 2024 18:06]

Hopelijk zit hier flinke curatie op, anders hebben we in elke categorie honderden low-quality GPT's. Een simpele zoekopdracht in google: site:http://chat.openai.com/g/ <keyword> geeft al weer wat er zoal in gaat komen. Niet best.

Op dit item kan niet meer gereageerd worden.