Discord trekt op 1 december stekker uit AI-chatbot Clyde

Discord gaat op 1 december stoppen met zijn AI-chatbot Clyde. Na die datum kunnen gebruikers de bot niet meer oproepen in groepsberichten, privéberichten of serverchats. Waarom Discord stopt met het gebruik van de bot is niet bekend.

Op de supportpagina van Clyde staat dat de bot vanaf 1 december niet meer gebruikt kan worden. In maart kondigde Discord aan dat het de technologie van OpenAI ging gebruiken om Clyde van meer functies te voorzien, zoals vragen beantwoorden, gifjes sturen en muziek aanbevelen.

Het was de bedoeling dat het chatplatform de bot 'bleef testen en verbeteren, zodat Clyde snel een fundamenteel onderdeel van de Discord-ervaring werd'. Discord vermeldt niet waarom het stopt met de AI-bot. Ook is het niet bekend of Discord van plan is om een nieuwe bot te introduceren.

Door Loïs Franx

Redacteur

17-11-2023 • 20:52

40

Reacties (40)

40
37
8
0
0
17
Wijzig sortering
Gezien ChatGPT momenteel weer met capaciteitsproblemen zit zou dit erachter kunnen liggen.
Maar het klinkt mij persoonlijk als iets wat ondergebruikt is en teveel kost.

Het is overigens wél een goede combi wat mij betreft. Een platform met veel informatie en voornamelijk gebruikt wordt om te chatten en voor voicecoms. Het lijkt mij dat het een gouden combinatie zou moeten zijn. Of minimaal een hele logische toevoeging.

Ben benieuwd of de echte reden binnenkort boven tafel komt. Ik hoop dat op een update-artikel hier.
Waarom Discord stopt met het gebruik van de bot is niet bekend.
Nou ik heb anders wel een idee hoor. Het kost bakken met geld en de toegevoegde waarde is bijna 0. Wel dapper van Discord om dit te herkennen en er vroegtijdig de stekker eruit trekken (dan kijk ik even Snapchat aan).
De AI crazy is over zijn piek? Het is zo'n hype nu, dan ai heeft goeie nuttige toevoegen maar niet overal hoeft het in.
Of ze zien in dat het veel resources kost en er anderen zijn die dit veel beter doen, waar ze ook gebruik van kunnen maken. Een nieuwe bot gebaseerd op ChatGPT, of waar je je API key aan kan koppelen, is niet zo gek. Veel lagere kosten voor Discord (met API betaalt de API houder direct aan OpenAI) en qua onderhoud ook veel minder werk. En dan heb je ook een chatbot die al veel verder is en actieve ontwikkeling krijgt van OpenAI.
Er is een reden waarom er een hype-cycle grafiek bestaat. Momenteel zitten we volgens gartner nog in de "Peak of Inflated Expectations" en daarna komt de "Trough of Disillusionment".

A.I. heeft zijn toepassingen, maar het ongebreideld inzetten zonder na te denken over de inzet, toevoeging van waarde en normen zullen veel bedrijven A.I. verkeerd inzetten. Wie weet heb je gelijk en zijn we naar de fase van "Trough of Disillusionment" aan het gaan, wat goed nieuws is, want pas op de "Plateau of Productivity" zal A.I. op zijn sterktst zijn.

Voor de gemakkelijkheid gebruik ik A.I. even synoniem met Generative A.I. waaronder LLM's vallen. Er zijn natuurlijk nog verschillende varianten die elk op hun eigen pad staan.
ik vraag me soms af of de hype-cycle ook van toepassen is op Gartners grafieken zelf...
Het hele model wordt echt zo overdreven serieus genomen en men vergeet dat het óók kan dat een techniek gewoon nooit meer uit de "Trough of Disillusionment" komt. Ahum Blockchain Ahum.
Blockchain werkt toch gewoon? Darknet marketplaces bestaan, granted, het is de enige bewezen usecase voor blockchains.
Een beetje off-topic hier, maar behalve ontvoeringen, darknet, kinderporno, en hacken is er ook een fatsoenlijke toepassing.

In Duitsland moeten winkels tegenwoordig bonnetjes printen die een geüpdate blockchain-hash hebben. Daardoor kan de winkeleigenaar niet meer de geschiedenis van de kassa veranderen als een ambtenaar ook maar één bonnetje heeft. Is een prachtige toepassing.

Maargoed, verder valt het blockchain-nut nogal mee.
Een prachtige toepassing voor belastinginners. Maar de vrijheid, wat juist de belofte was van crypto, vliegt steeds verder weg. Crypto is gewoon van begin tot eind een gefaald project waar mensen hun geld niet meer uit durven halen imho.
Ik had het over toepassing van blockchain, wat gewoon een informatietechnisch concept is. Dat belooft niks, net zomin als een hash-algorithme vrijheid belooft.

"Crypto", ik neem aan dat je bedoelt "cryptocurrency" is wat anders. Aangezien er duizend projecten zijn zijn er ook duizend beloften daar.
Het zou inderdaad heel goed zijn om AI te gebruiken waar het goed in is en niet overal maar in te stoppen om 'maar mee te doen met de hype' of om data te verzamelen (want ja, mensen stoppen geloof ik hun hele leven in een AI Chatbot). Wat mij betreft slopen zie die vervelende chatbot ook uit Snapchat. Ik ben wel benieuwd wanneer het eerste 'AI schandaal' plaats zal vinden.
Ik zie liever dat ze de Nitro meuk niet meer pushen. Op zich genoeg reden een alternatief te kiezen als dat er komt. Zal binnenkort wel een pagina vullende pop-over krijgen met dat Nitro-AI er is.
Maar dat is hoe ze hun geld verdienen! Je wilt wel dat je hun product kan gebruiken maar niet dat ze ergens geld binnenkrijgen?
Nee, ik wil hun product niet gebruiken maar elke nieuwe tool zit op disord ipv IRC dus als ik een vraag heb moet ik weer de kermis-bordeel-app van discord in.
Dat is zeker waar! :'( :'(
Begrijpelijk, een AI trainen kost veel tijd en geld. Het is financieel soms wel aantrekkelijker om een licentie te kopen dan eentje te ontwikkelen.
(Discord) Clyde gebruikt gewoon OpenAI. (source)

Dus het is niet hun eigen AI.
Ik denk eerder dat de stekker er uit is getrokken omdat het geen geld oplevert. Alleen geld kost.
Niet alleen trainen kost veel geld. De energie-rekening, daar word je ook helemaal niet vrolijk van.

Licenties nemen klinkt inderdaad logischer dan er zelf een te maken. Maar dan ben je wel meteen afhankelijk van de kennis/kunde/capaciteit van de partij waar je de licentie van afneemt. Ook zij dienen hun servers nog altijd met een of meerdere stevige GPU's uit te rusten. En die zijn niet overal ter wereld zo vrij beschikbaar als je misschien wel denkt. Wat de toch al niet geringe prijs nog verder opdrijft.

Betekent ook dat de rest van de server gevuld is met serieuze enterprise-klasse hardware. Je bent goed bezig als je een consumenten GPU van 2000 Euro aan kan schaffen. Dat bedrag is echter een afrondings-fout wanneer er over enterprise-klasse hardware word gesproken. Daarnaast hebben zulke servers nog meer koeling nodig dan gebruikelijk. Niet alleen binnen in de server, maar ook daarbuiten. Koeling die niet uit mag vallen en dus redundant uitgevoerd wordt. Staan deze servers in een datacenter? Dan moet je een stevige huurprijs per kubieke centimer betalen. En soms is er niet genoeg ruimte en/of (koel-)capaciteitie ruimte.

Als je het dan over een bedrijf als OpenAI hebt, dan is "nee" verkopen niet iets wat ze lang kunnen volhouden. Microsoft heeft er 10 biljoen USD in dat bedrijf gepompt en men is daar al bezig met de volgende ronde om geld op te halen bij investeerders.

AI is een mooie ontwikkeling, technisch gezien. Je zal mij nooit anders horen beweren. Of het echter financieel vol te houden is, dat is bij mij de vraag. Ikzelf denk namelijk van niet. Microsoft propt het in zo'n beetje elk produkt onder hun paraplu. Maar meldt ook al dat gebruikers die veel van AI gebruik maken (zwaar) gelimiteerd worden. Als ik echter een abonnement voor zo'n dienst afsluit, dan zorg ik er wel voor dat ik waar voor mijn geld krijg. In dat geval kun je dus erop rekenen dat Microsoft je limiteert.

Dat geeft mij de indruk dat er een consistent capaciteits-probleem is, en dat Microsoft erop gebrand is om hun investering terug te verdienen. Met dat laatste is natuurlijk niets mis, maar ik denk dat al die vele "kleine" AI gebruikers toch voor overlast op de aanwezige servercapaciteit zal blijken te zijn. En dan word het of "nee" verkopen, of nog vervelender "er zijn nog 2000 wachtenden voor u".

Ik krijg met slim zoeken nog altijd de informatie gevonden waar ik behoefte aan heb. Heb de AI's (ChatGPT en Bard) uitgeprobeerd en niet altijd waren de antwoorden bruikbaar. Ik verwacht wel dat AI een mooi produkt zal worden, maar kan niet ander concluderen dat het te snel te groot is gegroieid, omdat iedereen denkt dat er met AI behoorlijk wat granen zijn te pikken.
Je weet dat bijvoorbeeld nVidia een aparte productlijn heeft speciaal voor AI en dat een GPU zoals jij die waarschijnlijk bedoelt niet nodig is? Natuurlijk kunnen de berekeningen óók op een GPU gedaan worden, op kleine schaal werkt dat voldoende. Maar op een schaal voor ChatGPT of Bard kom je dan echt kracht tekort. Deze speciale kaarten zijn erop toegespitst. ;)
Je hebt gelijk, NVidia maakt inderdaad kaarten specifiek voor AI. Maar voor zover ik heb begrepen hebben ze zelf geen capaciteit om chips te produceren, dus zijn ze afhankelijk van de capaciteit bij derde partijen die wel chips kunnen produceren.

Deze derde partijen hebben genoeg klanten om hun productielijnen het hele jaar door te laten produceren. Dus zal NVidea of op hun beurt moeten wachten tot 3e partijen hun chips gaan produceren, of extra geld spenderen bij een andere wachtende partij om van plek in de wachtrij te wisselen.

Beschikbaarheid blijft dus een probleem. Deze "AI" kaarten zijn complexer, dus is de kans op fouten groter. En energieverbruik van deze AI kaarten is net zo hoog of hoger als hun meest uit de kluiten gewassen GPU modellen.

En ja, deze "AI" kaarten zullen meer aanvragen kunnen verwerken dan een GPU dat kan. Echter, met de toename van AI in zo'n beetje elke applicatie, zullen die aanvragen enkele magnituden hoger groeien dan nu al het geval is, zodat ook deze "AI" kaarten snel door de knieen zullen gaan.

De hoofdpunten van mijn eerdere post blijven nog steeds overeind staan.

Er is al langer een trend aan het vormen om de huidige modellen van AI efficienter te maken. Zodat deze op veel minder energievretende hardware kan draaien. Naast het optimaliseren van modellen, natuurlijk.

Noot:
De term "AI" kaart is niet denigrerend bedoeld. Maar de juiste naam herinner ik me niet op dit moment. Ben echter te lam om het op te zoeken en te trots om het aan een AI te vragen. ;)
nVidia laat geloof ik hun chips vooral produceren bij TSMC. :) Daar betalen ze goed voor, zo heeft ook de Corona pandemie wel laten zien, echter zijn de grondstofproblemen intussen ook opgelost en is de pandemie gelukkig ook al even over. De productie gaat nu een heel stuk beter dan eerst; de prijzen zijn dan ook beduidend lager. Zie daarover ook nieuws: Nvidia's kwartaalomzet en -winst stegen met honderden procenten door ...

Ik weet dat "die kaarten" ook een naam hebben, maar ik zit met hetzelfde: ik weet de naam even niet uit het hoofd en te trots om het een AI of zoekmachine te vragen. :+

[Reactie gewijzigd door CH4OS op 22 juli 2024 16:49]

Binnenkort zijn de AI gpu's voor een prikkie te koop op ebay haha.

Veel AI is gfewoon onbruikbaar en relatief dom. ik heb de hele hype echt nooit begrepen. Als ik voor support een bot voorgeschoteld krijg sluit ik a en stuur ik een mail dat ze contact op moeten nemen. Ik ga daar echt geen seconde aan verspillen.
En toch werkt het wel.
Voor vragen die soort van standaard zijn(toch altijd de overgrote meerderheid van de vragen) is een chatbot briljant. Veel interactiever dan zelf een database met hulpartikelen moeten doorzwoegen.

Daarnaast kun je de combinatie van de taligheid van een LLM met de harde programmatuur van oudere chatbots perfect inzetten om wat natuurlijker over te komen :)

Ik pak altijd voor postnl, vliegmaatschappijen of andere "dienstenaanbieders" de chatbot. Veel sneller en behulpzamer dan wachten op contact terwijl die bots de basisfuncties uitstekend beheersen.

Heb je echt een keer iets speciaals dan krijg je bij de meeste bots na twee keer "nee dit is m niet" de optie contact op te nemen met een mens.
Is allemaal prima, maar ik vindt persoonlijk de FAQ paginas van bedrijven veel prettiger omdat je in kortere tijd met zoeken op wat steekwoorden precies komt waar je moet zijn. Dus zolang ze dat soort dingen niet in de chatbot verstoppen is het wmb mooi weer.

Ik heb geen interesse in hele verhalen typen in een chatbox terwijl ik met 4 woorden zoeken er ook kom.
Vaak is het zo dat je bij problemen waar je er met de website informatie er niet uitkomt je toch een persoon nodig hebt. En daar moet je wel voor door de chatbot heen tegenwoordig. :(

En als het op de letter moet, zoals garantie voorwaarden of andere zaken zul je toch zelf moeten lezen omdat een chatbot er ook niets van bakt.
Ja maar je gaat voorbij aan modellen voor audio of grafisch. in seconde complete cut outs. Stem uit muziek filteren. Herkennen tumors. Heel veel strakke goed werkende zaken.

Maar inderdaad.. chatbot voor support mag wat mij betreft verboden worden.
Vooral als ze net doen of ze een mens zijn, die moeten helemaal maken dat ze wegkomen.
Oh ja er zijn vast en zeker nuttige zaken. Ik gebruik Topaz sinds een tijdje voor mijn foto's. Hit en mis maar ik heb van een 320x240 foto een 8k foto weten te maken. Dat is dan wel weer leuk maar het is heel erg beperkt op wat voor type foto het wel of niet werkt.

Maar veel AI is wat mij betreft gewoon niet echt een toegevoegde waarde en chats zijn daar de uitspringer van.
Gevalletje "Oh ze hadden een chatbot?".
Meschien maar beter ook ;P
Ntts(no text to speech) wist hier meer over te vertellen. Wat voor mij aannemelijk klinkt. Maar ik weet niet of je hem als betrouwbare bron kan beschouwen.
Naar mijn mening heb ik het gevoel dat er wel iets van zou kunnen kloppen. Volgens hem zou het "ongepaste" output geven. Wat zeer zeker niet wenselijk en zeer zeker wil vermijden en dan al meer dan zeker op platformen zoals discord.

Een model gebruikt data en voorbeelden om van te leren. Als je een model maakt met de bedoeling iets te detecteren wil nog niets zeggen over hoe een model reageert als het gevraagd wordt om output. En als jou model dat ding detecteerd maar in plaats van het te melden ingaat op de input van de user en zo dus meedoet dan denk ik dat hier nog veel werk aan de winkel is.
Ik wist eerlijk gezegd niet eens dat dit een ding was. Ach ja, niks aan gemist
Ik vind de cycle altijd leuk,

een moet een text typen maar ik ben lui dus ik gebruik AI om mijn paar regels in een verhaal te maken,

Dan verstuur ik het en komt het bij de ontvanger en die denkt, ja he ga geen heel verhaal lezen ik gebruik een AI voor een samenvatting,


zijn we de circle rond alleen hebben we een hoop extra AI toegevoegd terwijl bijde partijen er niks mee opgeschoten zijn lol |:( |:(
Goeie om een samenvatting te maken, wat vraag je dan aan chat gpt?
Alle verkeerde grammatica in de post van @Scriptkid helpt niet, maar het punt dat Scriptkid overbrengt met zijn post is wel duidelijk. En beschrijft tot in de puntjes hoe het grootste deel van de bevolking met AI om zal gaan.

En ondertussen is er wel een hele hoop energie verstookt om hetzelfde te bereiken als zelf even een simpel mailtje of berichtje te verzenden.

Daarnaast kun je ook de vraag stellen, diegene die AI gebruikt om zijn verhaal te maken, hoe zeker is hij/zij ervan dat de AI welke hij/zij gebruikt dat goed doet. En de vervolgvraag: hoe zeker is diegena die het AI gegenereerde verhaal ontvangt ervan dat de AI die hij/zij gebruikt het verhaal goed kan samenvatten?

Er zitten dus extra vertaalslagen in een communicatie. Nu weet ik niet of je wel eens het 'telefoonspel' hebt gespeeld, maar als je dat wel hebt gedaan, dan weet je dat elke extra vertaalslag de kans op fouten flink vergroot.

Misschien zie ik het te donker in, maar ik denk dat veel mensen dit probleem onderschatten. De Engelse zegswijze "Lost in translation" is er niet voor niets. Dit probleem word alleen maar groter als de zender en ontvanger niet dezelfde taal spreken. Het 'Google boomerang'-effect kan nu ineens voor veel problemen zorgen.
Maar, even serieus. Is dit echt wat je denkt, of probeer je een beetje out of the box te denken? Een hoop energie verstookt... Dat kan je bijna niet menen. Heb je enig idee wat social media of streamingdiensten, games, etc, aan energie gekost hebben? Laten we dan aub liever AI gebruiken, daar heeft een mens ten minste nog iets aan in de toekomst.

Ik heb een andere vraag voor je. Is de persoon die aan chatgpt vraagt om een coherent verhaal uit te spugen competent genoeg om zelf iets dergelijks te schrijven wat ook nog eens de complete lading dekt in ongeveer 10 seconden? Ik denk persoonlijk dat het "human -> AI -> AI -> human" model vele malen sneller en effectiever is wat betreft communicatie van ingewikkelde dingen, dan zelf de hele dag mailtjes opstellen of mails/documenten die helemaal volstaan met spelfouten moeten doorspitten.

"Ja maar je weet niet of het klopt!" Nee, dat weet ik ook niet als ik andere mensen iets voor mij laat doen, en over het algemeen heb ik gevonden dat mensen veel onbetrouwbaarder zijn dan ChatGPT, moet ik helaas eerlijk toegeven. Dus ik zal het zelf hoe dan ook moeten checken op juistheid. En wat is er "juist" aan een stuk informatie? De vraag is, dekt het de lading van wat je wilde communiceren? Leest het makkelijk? Wat voor stijl gebruik je? Wat voor woorden? Zulke dingen kunnen allemaal afgestemd worden.
Het was nadrukkelijk niet mijn bedoeling om op spelling te bashen. Het onnodig gebruik van Engelse woorden in een Nederlandse tekst op een Nederlandstalig website vind jammer. Gebeurt erg vaak hier, komt erg lui over.

Spel- en taalfouten maken we allemaal.
Sorry ik was te luj om het stuk te schrijven zoals @GeroldM dat wel heeft gedaan.

Had ik toch de ai moeten gebruiken :)

Op dit item kan niet meer gereageerd worden.