Slack krijgt AI-functies voor samenvatten berichten en maken aantekeningen

Salesforce introduceert Slack GPT. Daarmee wil het bedrijf generatieve AI-functies in de berichtendienst integreren, bijvoorbeeld voor het samenvatten van berichten en het maken van notities bij spraakgesprekken. De dienst moet in het komende jaar beschikbaar komen.

Salesforce kondigde Slack GPT op donderdag aan tijdens een evenement in New York. Slack GPT wordt volgens het bedrijf in de berichtendienst geïntegreerd. Als onderdeel daarvan komen op termijn verschillende AI-features beschikbaar in de app. De tool kan onder meer gebruikt worden om berichten in te korten en de toon daarvan aan te passen of om meerdere gemiste berichten in een Slack-kanaal samen te vatten. Slack GPT kan ook functioneren als schrijfhulp en kan notities maken over spraakgesprekken.

Gebruikers krijgen de optie om AI-acties te automatiseren met Slacks Workflow Builder. Het wordt daarnaast mogelijk om AI-modellen van andere bedrijven, zoals OpenAI en Anthropic, te integreren in het platform. In die gevallen wordt data uit Slack niet gebruikt om de modellen van die bedrijven te trainen, zegt Salesforce. Het moet ook mogelijk worden voor bedrijven om hun eigen integraties te ontwikkelen. De tool moet verder gaan samenwerken met Einstein GPT, een AI-model waar Salesforce al langer aan werkt.

Eerder dit jaar maakte Salesforce OpenAI's ChatGPT en AI-model Claude van Anthropic al beschikbaar via Slack. Dat betroffen echter externe apps. Slack GPT moet in de berichtendienst zelf geïntegreerd worden en uitgebreidere functionaliteit bieden. Het is niet bekend wanneer SlackGPT precies beschikbaar komt. Slack-topvrouw Ali Rayl zegt tegen CNBC dat de functies 'in het komende jaar' beschikbaar moeten komen, maar deelt verder geen concrete informatie.

Slack GPT
Een met AI gegenereerde berichtensamenvatting via Slack GPT. Bron: Salesforce

Door Daan van Monsjou

Nieuwsredacteur

04-05-2023 • 12:02

38

Reacties (38)

Sorteer op:

Weergave:

Ik hoop dat Tweakers ook AI in gebruik gaat nemen, zodat de site weet dat al dat AI nieuws me de neus uitkomt en het wegfiltert... Ja het is de nieuwe 'hype' en daar zit nu geld. Maar het wordt ons allemaal ZO geforceerd opgedrongen de laatste maanden.... Vorige maand een theatershow van Lieven Scheire gezien, over AI. Een aanrader. En dat maakt ook duidelijk dat het zeer gevaarlijk is om er maar van uit te gaan dat AI 'goed' is. Zoals met alles kan hier veel goed mee gedaan worden, maar ook kwaad. En boven al; het 'leert' uit een dataset gevoerd door wij mensen.

Hij gaf als anekdote bijvoorbeeld dat ze AI duizenden foto's van wolven en honden hadden gegeven teneinde AI te leren om honden van wolven te kunnen onderscheiden. Toen het zover was, voerden ze AI een foto van een hond in de sneeuw, en hij noemde het een wolf. Want praktisch alle wolvenfoto's waren in de sneeuw.

Het ligt natuurlijk allemaal wat genuanceerder... maar waarom deze hype ZO enorm opdringen terwijl het eigenlijk zover nog helemaal niet is?
Ik vind Lieven Scheire een goede vent, en de Nerdland podcast is leuk, maar dat voorbeeld van falende AI is zo 2014, misschien moet hij eens wat recent nieuws over AI lezen op bijv Tweakers (ik vermoed trouwens dat jij het voorbeeld uit context hebt getrokken; edit: AI kan dus idd super dom overkomen, maar ook heel slim, het is belangrijk het voor de juiste toepassingen te gebruiken).

Maar goed, wat wil je dan? Dat Tweakers deze hype negeert? Ik vind het juist fijn om over echte toepassingen te lezen, zodat je een idee krijgt van wat hype is en wat niet. Mijns inziens zijn we de hype juist voorbij aan het gaan, het gaat razend snel. Eerst was het leuk chatten met LLMs, maar nu wordt er al flink geld verdient en zelf gebruik ik (bijv) ChatGPT al regelmatig om me veel tijd te besparen op het werk.

De belofte van "iedereen een persoonlijke assistent" is ineens binnen handbereik. Ik hoop dat T.net me goed op de hoogte houdt.

Edit: Nog een verduidelijking: Bij de allereerste toepassingen van AI image analysis (met oa CCNs) waren mensen idd soms verbaasd dat als ze het netwerk plaatjes van wolven in de sneeuw en honden zonder sneeuw voerden, het netwerk juist de sneeuw als "classifier" (de onderscheidende factor tussen wolf en hond) oppikte. Tegenwoordig weten we dit al heel lang en ook achteraf is het totaal geen verrassing dat een naïef Neuraal Netwerk niet snapt dat het eerst een beest moet herkennen in het plaatje, en daarna pas de soort (wolf of hond). Voor mensen is dit zo natuurlijk dat we eventjes verrast waren. Heel eventjes. Het is natuurlijk wel een leuke herinnering aan het verschil tussen mensen en kunstmatige neurale netwerken.

[Reactie gewijzigd door teek2 op 22 juli 2024 15:10]

Het voorbeeld dat Lieven gaf was vooral om aan te geven dat het heel moeilijk is om te achterhalen waarom een model een bepaalde beslissing neemt. Hij gaf dacht ik ook het voorbeeld van een model dat CV's scant op potentiele kandidaten. Zo bleken Aziatische mannen naar boven te komen en vrouwen naar beneden want ja, recruiters hadden dat ook vaak gedaan... Alles hangt af van je data-set.

Het grootste probleem is dat veel mensen denken dat die dingen echt intelligent zijn en het willen gebruiken voor dingen waar het compleet niet geschikt of gemaakt voor is.
Neem GPT, zoals je aangaf een LLM. Het ding is goed in het schrijven van coherente zinnen... niets meer. Soms komt daar een zinnig antwoord uit, vaak ook niet. GPT is als een politieker: kan oeverloos lullen maar vaak komt er geen zinnig woord uit :*)
Zo had ik een collega die graag wandelt en vroeg om 3 wandelroutes met bepaalde parameters in een streek. Perfecte essay met compleet zinloze info.
Anderzijds een vriend die als test vroeg een database model te maken op basis van info; hij liet die corrigeren en daarna zelfs code schrijven. Daar is het ding dan wel weer "goed" in.

Maar ja, het is de zoveelste hype, niet dat het iets slecht is, maar gewoon iets waarvan veel mensen denken dat ze er snel geld mee kunnen verdienen door het te gebruiken waar het niet voor gemaakt is. Denk maar aan blockchain, dat ging ook de wereld redden... of de Metaverse...

[Reactie gewijzigd door niqck op 22 juli 2024 15:10]

het 'leert' uit een dataset gevoerd door wij mensen.
Vroeg ChatGPT naar verschillende (verifieerbare want historische) feiten uit mijn vakgebied. Kwam aanzetten met verzonnen namen en data. Wilde geen bronnen prijs geven. Ondanks de tig parameters staat blijkbaar niet ingesteld dat ChatGPT ook gewoon kan zeggen 'hier heb ik geen info over'. Het verzon gewoon data van personen die niet bestaan hadden.

[Reactie gewijzigd door Eusebius op 22 juli 2024 15:10]

Dit is ook niet waar de meerwaarde van de technologie ligt, op dit moment.

Maar vraag het eens een tekst "more concise" te maken, of een voorbeeld te genereren voor een plan vaan aanpak van iets waar je aan werkt. Dat zijn op dit moment de nuttige toepassingen.
ChatGPT is dan ook maar een chatbot die maar gewoon wat in de ruimte lult. Waarom jij zoveel waarde aan de output van een chatbot hecht moet je bij jezelf zoeken.

Het is gewoon een language model dat getrained is voor conversatie. Het bron materiaal dat is gebruikt bevat informatie en daarom zegt ChatGPT vaak relevante dingen, maar that's it.

Dus ik begrijp niet helemaal waarom jij lijkt te verwachten dat ChatGPT een of andere super intelligentie WO-gestudeerde AI is die met bron en al literair onderzoek voor jou gaat doen en zichzelf daarbij op juistheid probeert te controleren.

ChatGPT verzint in principe alles wat het zegt ter plekke. Of het klopt met de werkelijkheid is echt bijzaak. Het wil gewoon een antwoord formuleren op je prompt. Geen goed antwoord. Het doel van ChatGPT is om iets terug te zeggen op basis van je in input.

Overigens heb ik bij een hele hoop ChatGPT prompts wel eens als antwoord gehad dat het niet snapt waar ik het over heb. Als je gewoon een vraag stelt over iets obscuurs kun je het echt wel zover krijgen. Dus de bewering dat het dat niet toe kan geven is onzin.

[Reactie gewijzigd door youridv1 op 22 juli 2024 15:10]

Wat heb jij een vervelende manier van communiceren..
Bedankt voor je waardevolle toevoeging :)
Dat komt omdat ChatGPT je vraag niet echt begrijpt, maar het een next-token predictor is - autocomplete dus. Zodra ChatGPT getraind wordt met informatie uit jouw vakgebied, zullen de voorspelde tokens nauwkeuriger worden.
Daarom is Bing Chat een goede alternatief wat betreft het aanhalen van bronnen.
Bing Chat kan net zo goed bronnen verzinnen.
Deze kunnen vallen onder:
1) te algemene bestaande bronnen waar de genoemde feiten niet in staan
2) verzonnen bronnen met geloofwaardig uitziende webpagina URLs die volgens de AI echt bestonden, maar verwijderd zijn
3) een combinatie van bovenstaande 2 met half kloppende feiten die een leek niet van echt zou kunnen onderscheiden

[Reactie gewijzigd door Weicool op 22 juli 2024 15:10]

En dit soort shit: nieuws: Microsoft Bing nam foute beschuldiging van seksuele intimidatie over ...

Lult er een bot onzin, zit een andere bot het doodleuk over te nemen
Ja, fake news op een willekeurige website is verder net zo goede bron voor Bing chat als echt nieuws. De hele GPT series ook is maar slechts een geavanceerde series van woord-remix-algoritmes! Het kan eigenlijk alleen maar oude concepten een beetje door elkaar mixen en daarna rangschikken op volgorde van de meest voorkomende woord frequenties. Het kan bijvoorbeeld niet eens fatsoenlijk een lange inhoudsopgave van een boek of paper herhalen zonder de volgorde door elkaar te halen of gerelateerde worden in de inhoudsopgave erbij te verzinnen

[Reactie gewijzigd door Weicool op 22 juli 2024 15:10]

Misschien kan je aan ChatGPT vragen hoe je jezelf kan leren om niet op links te klikken waarin je niet geïnteresseerd bent. :+
maar waarom deze hype ZO enorm opdringen terwijl het eigenlijk zover nog helemaal niet is?
Clicks en engagement.... Dat lijkt me duidelijk bij ieder bericht hier. Vooral als het hype of controverse is dan reageren mensen sneller en agressief. Dat levert weer meer advertentie geld op.

Maar goed, dat weet hopelijk iedereen wel.

Het laatste gedeelte van je vraag 'terwijl het eigenlijk zover nog helemaal niet is' is niet correct. Ik denk dat je niet inziet hoe groot de technologische doorbraak is en niet goed begrijpt welk 'probleem' het oplost.

Kijkende naar enkel ChatGPT is al de snelst groeiende 'app' ooit in de geschiedenis van de mensheid:
ChatGPT currently has 1.16 billion users. It crossed 1 billion users in March 2023. These numbers depicted an increase of almost 55% from February 2023 to March 2023.
It managed to cross 1 million users within 5 days of its launch and 100 billion users within two months.


Het hond/wolf verhaal is leuk maar enkel een specifieke use case. Een iPhone kan nu al lokaal beter honden herkennen dan jij dat waarschijnlijk kan (zoek in foto's op honden). De meeste mensen zijn namelijk niet 'getraind' op het herkennen van honden.. Het verschil tussen een hond en een wolf zal een normaal mens al helemaal niet kunnen maken. Maar dat is ook niet het punt van de anekdote, denk ik. Het is al wel stevig bewezen dat AI/ML modelen veel beter zijn dan een mens ooit kan zijn. Het punt is dat we de AI modellen gewoon nog niet goed begrijpen en daarom niet eenvoudig fouten kunnen opsporen. Het gevaar zit hem dan ook dat we een AI antwoord gaan vertrouwen terwijl we niet weten hoe deze tot dat antwoord is gekomen (hoe komen we er achter dat de AI een wolf antwoordde omdat hij sneeuw zag). Zeker als we dingen gaan doen welke we onmogelijk nog zelf kunnen controleren of begrijpen.

Je moet daarnaast begrijpen dat we nogal veel 'bullshit' banen hebben. Daarom hebben ook veel mensen een hekel aan werk of hun baan. Ze halen geen motivatie uit hun werk en een grote reden is omdat ze bezig zijn met nutteloze taken. Dit zijn taken die waarschijnlijk veel beter door een chatbot als ChatGPT uitgevoerd kunnen worden. Denk aan summeren van tekst, notuleren, verkoop onzinverhalen schrijven, trends analyseren, alles waar veel woorden worden gebruikt. Denk aan verkoop, marketing, media, etc. Men 'hyped' het dus ook op omdat het waarschijnlijk (ik zou zelf zeggen zeker) een grote impact gaat hebben op ons dagelijkse leven.
Ik onderschat helemaal niks, ik schets alleen een anekdote die iemand gaf. En het feit dat AI gevoed wordt door informatie die we al hebben. En daar gaan soms dingen mis.

Mijn stelling is met name dat we doodgegooid worden ermee in een wedloop van techgiganten onder elkaar. Over wordt maar AI ingezet. Gisteren of eergisteren een bericht over een notitie-app waar AI aan toegevoegd wordt. En natuurlijk, alles is afhankelijk van de implementatie. Maar mag ik nog zèlf nadenken over dingen? Er zijn vast mensen waarvoor het nuttig is als er iets voor hun denkt, maar daar ben ik er geen van.
ik schets alleen een anekdote die iemand gaf.
En ik probeer duidelijk te maken dat het heel complex is waarbij in essentie het probleem is dat we niet eenvoudig kunnen begrijpen hoe een AI tot die conclusie is gekomen. Het probleem is niet dat dat er een fout antwoord uit komt, ook is de trainingsdata niet het probleem. Je kan immers ook specialistische AI modellen maken voor 'specific use cases' met betrouwbare trainingsdata (en dat gebeurd al jaren).

En het feit dat AI gevoed wordt door informatie die we al hebben. En daar gaan soms dingen mis.
Zo plat is het helaas niet. AI wordt tegenwoordig ook al gevoed door andere AI of op diverse andere manieren.

Mijn stelling is met name dat we doodgegooid worden ermee in een wedloop van techgiganten onder elkaar.
Tja, snelst groeiende tech in de mensheid. Hype is menselijk en levert clicks op. Je kan dat techniek niet kwalijk nemen, dit is een menselijk probleem.

Er zijn vast mensen waarvoor het nuttig is als er iets voor hun denkt, maar daar ben ik er geen van.
Tja, dat is ook een mening zo oud als de rekenmachine. Maar de meeste mensen (en scholen) zijn er nu van overtuigt dat rekenmachines er gewoon bijhoren. Kritisch zijn is niet erg maar je moet ook begrip hebben voor mensen met een andere instelling, dat iets voor jou niet werkt wil niet zeggen dat het voor iedereen niet werkt...
terwijl het eigenlijk zover nog helemaal niet is?
Waar baseer je dat op? Want dat is nou juist waar de discrepantie ligt. Een hele hoop mensen (waaronder ikzelf) vinden namelijk dat het wel heel ver is. Sterker nog, het is al zo ontzettend ver dat er maatschappelijke disrupties ontstaan en legislatie noodzakelijk wordt.
Naast hype is het ook een intercity die met volle snelheid op ons afstoomt. Er zitten veel voor- en nadelen aan AI die ingekaderd moeten worden met wetten en regels, maar nuttig is het zeker.

Het is goed om nu veel kennis van het onderwerp te doen (zeker als IT-er) omdat we er met zijn allen waarschijnlijk snel en veel mee te maken krijgen. AI niet begrijpen wordt nu al genoemd als een potentiële zwakte bij professionals. Van die opmerking kun je heel veel vinden maar de tendens is duidelijk.
Ik denk dat we op een gegeven moment komen (of al zijn) waar teksten door AI gegenereerd worden en vervolgens weer door AI worden samengevat.

Vraag me dan af waarom we niet gewoon zelf een samengevatte tekst naar elkaar kunnen sturen. Is het echt zo belangrijk dat we al die onnodige flavour in onze teksten stoppen als we het toch alleen maar laten samenvatten telkens? Lijkt me dat je gewoon beter "straight to the point" kan zijn dan.
Related: https://pbs.twimg.com/media/FsPcL0kXwAQIjxo.png

Waarbij de verzender een bullet point transformeert naar een volledige email en de ontvanger de mail weer samenvat naar een enkel bullet point.
Krijg hier wel een telefoonspelletje gevoel bij. Dat je een heel ander verhaal terug krijgt dan je erin stopt.
denk hier eerder aan de use case van bv: er ontstaat een heen en weer discussie in een slack thread (triggered door een vraag, een incident, ...) na 50+ berichten komt het tot een einde en je wil als manager of geinteresseerd persoon achteraf een samenvatting van wat er gedaan en besproken is in de thread. of voor post mortem verslagen en dergelijke, ...

het is een zeer handige aanvulling op de huidige manier van communiceren. als je het als vervanging gaat gebruiken dan ja..

waarom moet zulke nieuwe tools als direct als vervanging van {jobs/mens naar mens communicatie/...} ipv huidige workflows te versnellen, duidelijker, efficienter te maken aanzien worden?

de overgrote reactie, en bijgevolg tegenreactie van chatgpt was grotendeels "dit gaat job X overbodig maken!" in plaats van "wow, dit gaat de workflow van job X zoveel aangenamer maken".

Mensen zijn graag negatief I guess. (yea I get the irony..)
Ik denk dat er jobs verloren zullen gaan. Maar hoeveel schoorsteenvegers, straatlantarens aanstekers en liftbediendes zijn er nog... Het is een evolutie, sommige jobs gaan verloren en andere komen ervoor terug. Dat is natuurlijk. "LLM prompt writer" zal een nieuw beroep kunnen worden, op dezelfde manier dat "SEO expert" er een paar jaar geleden niet was

Nu kan ik met mijn Poolse schoonouders praten mbv Google Translate waar ik in het engels/nederlands spreek en de app het vertaalt naar het pools en v.v.
Volgens een vriend van ons (die professionele vertaalster is), is de vertaling nu nog niet al te goed, maar ik vraag me af hoe dat over een paar jaar is, als we genoeg vertaling in the model stoppen... Real time vertalingen op professioneel niveau wordt dan mogelijk. Ik denk dat MS al bezig is met zoiets in Skype.
Het gaat in dit geval zo te zien meer om het samenvatten van gesprekken, niet berichten. Waarbij je dus niet straight to the point kan zijn, want je moet eerst vragen of dingen wel kloppen, aangeven dat je even wat onderzoek moet doen, wachten op antwoorden enzovoort. Daar kan deze AI zo te zien een samenvatting van maken met de uiteindelijke conclusies (of dat probeert 'ie iig).
https://knowyourmeme.com/...-written-a-shorter-letter

Nu kan je je brief er uit rammen en daarna kost het vrijwel geen extra tijd meer om de tekst korter te maken, met behoud van alle informatie.

"If I'd had a sufficiently large LLM, I'd have written a shorter letter."
Waarom moeten mensen altijd een lang verhaal vertellen als het ook samen gevat kan worden blijkbaar?
Er gaat met samenvatten altijd informatie verloren, en daarnaast heeft misschien niet iedereen de vaardigheden om iets kort en bondig te beschrijven

[Reactie gewijzigd door asdfqwerty op 22 juli 2024 15:10]

Dat is dus het deel wat ik niet snap, er gaat informatie verloren. Dus iemand schrijft een lang verhaal en iemand anders laat het samenvatten door AI en mist dus informatie. Dat is toch niet handig?
Verwijderd @JDx4 mei 2023 15:05
Hoe wil je anders tot een kortere text komen?
Wat heb je eraan als je informatie mist?

Als dat nutteloze informatie is waarom heeft de schrijver het erbij gedaan, vertel gewoon in het kort wat je wil vertellen. Als het belangrijk is dan dient men het te lezen lijkt me.
Informatie kan op langere termijn worden gevormd. Denk aan een klacht dat iets niet werkt, dan gaan mensen suggesties doen, uitproberen en rapporteren of dat wat uithaalt. Na een dag proberen is de conclusie dan "de stekker zat er niet in", dus de samenvatting is "probleem opgelost, stroomtoevoer hersteld" maar je hebt wel een dag aan chatlogs ondertussen.
Opletten dus met wat je op slack zet. Voordat je het weet kun je chatgpt vragen “welke bedrijven wil salesforce overnemen” en krijg je een antwoord op basis van hun slackkanalen.
Gaat Slack/Salesforce dit zelf hosten of sturen ze de data echt naar bv. de OpenAI API?

Ik heb al moeite dat we zoveel interne gegevens delen in Slack, als het dan nog naar OpenAI zou gaan zal ik dit niet activeren.
Als Slack dit zelf opzet en de data bij hun houd, is er niet veel verschil en ben ik er blij mee. Het kan je maar werk besparen. Zeker de functie om gemiste berichten in een Slack-kanaal samen te vatten lijkt me een meerwaarde.
Zolang het maar opt-in is. Het laatste waar ik op zit te wachten is dat een AI al m'n chatberichten gaat lezen en er logica/conclusies/redenaties aanhangt.
Bestaat er eigenlijk ook een minimalistische Slack versie? Ze hebben nogal last van feature creep...
AI weet weinig van de "gevoeligheden" op een afdeling of bedrijf. Bepaalde dingen zeggen of conclusies trekken is "niet handig" of "slecht voor je carrière". Iedereen kent wel die ene manager die "geen gezeik" wil, of zo'n "los het maar op" of "anders formuleren" type.

Op dit item kan niet meer gereageerd worden.