OpenAI laat gebruikers via WhatsApp chatten met ChatGPT

OpenAI heeft een WhatsApp-versie van zijn ChatGPT-chatbot gemaakt waarmee gebruikers kunnen chatten. De WhatsApp-variant is een laagdrempelig alternatief voor de ChatGPT-app en werkt met het GPT-4o Mini-model.

De WhatsApp-versie werkt met het telefoonnummer +1800 242 8478, die gebruikers moeten opslaan als contact. Daarna kunnen gebruikers chatten met ChatGPT. ChatGPT herkent eerder geplaatste berichten, waardoor er een chatgesprek van meerdere berichten plaats kan vinden. De WhatsApp-versie ondersteunt echter nog geen afbeeldingen of websearch. OpenAI wil dit wel op termijn wel mogelijk maken, maar hier moet eerst een accountintegratie voor gemaakt worden.

OpenAI ziet de WhatsApp-variant als een laagdrempelige manier om de chatbot te gebruiken. Als gebruikers dan beter aan de dienst gewend zijn, kunnen ze overstappen naar de ChatGPT-app die meer mogelijkheden bevat. De WhatsApp-dienst vereist geen account en werkt nu alleen met tekst. De WhatsApp-integratie was onderdeel van een hackweek-project. OpenAI laat Amerikaanse gebruikers ook bellen met het ChatGPT-telefoonnummer, maar dit werkt niet buiten de Verenigde Staten.

Door Hayte Hugo

Redacteur

18-12-2024 • 20:27

70

Lees meer

Reacties (70)

70
70
24
3
0
41
Wijzig sortering
Geinig, moet zeggen dat Copilot van Microsoft dit ook al een hele tijd heeft, dat je via Whatsapp met Copilot kunt chatten. Dat werkt (blijkbaar) ook via Telegram : Copilot voor sociale apps - Microsoft Ondersteuning

WhatsApp: https://wa.me/message/TJ5MI22N6WUVD1
Telegram: https://www.t.me/CopilotOfficialBot

[Reactie gewijzigd door TheVMaster op 18 december 2024 21:27]

Belangrijk verschil is dat Copilot ook realtime op het internet zoekt en ChatGPT niet. Iets simpels als het weer vragen aan ChatGPT kan niet.
als je kijkt naar het energieverbruik kunnen we ook beter niet naar het weer van vandaag vragen aan een LLM.
Ik zou denken dat het energieverbruik wel gerelateerd is aan hoe ingewikkeld de vraag is? (denk ik, weet ik niet zeker)
Dat maakt geen verschil. Zo'n LLM gebruikt net zo veel stroom voor een ingewikkelde vraag als voor een simpele. Je zou kunnen zeggen dat als het antwoord kort is dat de LLM minder lang bezig is met genereren en dus minder stroom verbruikt, maar dat is niet relatief aan de complexiteit van de vraag.
Factoren zoals welk model je gebruikt maken wel uit. Een groter model (zoals GPT4) gebruikt meer stroom dan een kleiner model zoals een Llama 3.3 ofzo.
Ook bij korte/simpele vragen slurpen LLMs energie, gezien de (huidige) manier waarop ze werken.
Hier wat cijfers. Weer niet hoe goed ze zijn want in mijn hoofd had ik een verschil factor 100 maar dat lijkt volgens deze site wel mee te vallen: https://fusionchat.ai/new...gy-consumption-comparison
Wel als je de web-search optie gebruikt...
"De WhatsApp-versie ondersteunt echter nog geen afbeeldingen of websearch"
Oh, OK. Dat zal wel niet lang duren vermoed ik.
ChatGPT geeft aan dat die data heeft tot Januari 2022 wat dus sterk verouderd is… zelf gebruik ik Microsoft Copilot in Whatsapp en die heeft veel meer actuele data.
En ChatGPT in de browser heeft meer up-to-date informatie en ook nog eens beschikking tot het internet. Ik weet niet of de gratis variant ook het internet kan doorspitten maar de betaalde versie wel.
Dat is wel veranderd overigens, de ChatGPT 4o versie doet het wel maar daarvoor nog niet volgens mij. En bij de dieper duikende o1 (zonder ChagGPT) geeft ook uitgebreide referenties etc.
Klopt inderdaad, dit is een 4o functie, niet de nieuwe o1
Dit nieuws over ChatGPT in WhatsApp is echt het toppunt van waardeloosheid. OpenAI, met hun zogenaamde missie om AI te gebruiken voor het algemeen welzijn, blijkt eigenlijk alleen maar uit te zijn op winstoogmerk. Het is overduidelijk dat hun echte doel is om zoveel mogelijk geld binnen te harken, en wie profiteert daar het meest van? Juist, Sam Altman, die naar verluidt 10 miljard gaat cashen hoezo non-profit...

De integratie in WhatsApp is gewoon een sluwe manier om nog meer gebruikersdata te verzamelen en hun AI-technologie verder te commercialiseren. Het heeft niets te maken met innovatie voor het grote goed, maar alles met het vergroten van hun marktaandeel en winst.

Mensen die OpenAI aanhangen, het is tijd om wakker te worden. Jullie worden misleid door een bedrijf dat zich verkoopt als een pionier voor de toekomst, maar in werkelijkheid alleen maar een graaicultuur heeft. Dit is geen stap voorwaarts voor AI, maar een stap voorwaarts voor de portemonnee van een select groepje mensen binnen OpenAI. Bah, wat een teleurstelling.
Het product doet voor mij wat ik verder van verwacht. 20e vind ik voor hun dienst ok.
Ik kan me niet perse voorstellen dat ik ze meer of minder zou gebruiken als ze niet commercieel zouden zijn.
Wel probeer ik te voorkomen dat ik persoonlijke of gevoelige gegevens met hen of andere providers deel.
Het doet nu wat je ervan verwacht.

Dit is nu typisch een product dat aan platformverval onderhevig zal zijn.
ik proef een boel negativiteit maar je hebt wel een paar punten.

tech is veelal gebaseerd op geld verdienen of macht maken dus dat zal bijna altijd de leidraad zijn.
Wetenschap an zich kan alleen maar profiteren van dat model maar zal in overstijgende doelen bijna altijd (vaak? soms?) aan het kortste eind trekken.
Dat is deels waar maar het is een redelijk geniale zet van OpenAi om ChatGPT voor iedereen toegankelijk te maken vanuit de app die ze het meeste gebruiken. Iedereen van jong tot oud weet hoe WhatsApp werkt.
En wat is er mis met een bedrijf dat geld wil verdienen? Jouw werkgever wil dat denk ik ook lijkt me.
Mja, eerst een non-profit zijn om minder belasting te betalen, om daarna for-profit te gaan om daarna de belasting die je niet hoefde te betalen te verslepen naar aandeelhouders etc.
Deels vind ik ook wel dat er een kern van waarheid zit in wat je schrijft en ik ook wel zo mijn grote twijfels bij dat hele non-profit deel van OpenAI heb. Alleen zou ik het zelf dan misschien minder negatief stellen en eerder mensen dan waarschuwen voor die hele AI gekte in zijn algemeenheid.
Het nieuws is zo waardeloos dat je niet alleen het artikel geopend hebt, maar ook moeite hebt genomen om drie paragraven te typen.
Het was misschien wat onhandig geformuleerd, maar die waardeloosheid sloeg in dit geval op wat er met AI en OpenAI aan het gebeuren is en niet dat daar een bericht op Tweakers over wordt geplaatst.
Er zijn miljarden geinvesteerd in OpenAI, tuurlijk is er altijd een risico, maar je investeert geen miljarden om er niets aan te verdienen. En hun doel is een 100 miljard datacenter opzetten, wie gaan er 100 miljard investeren zonder iets terug te verwachten? En andere techgiganten investeren ook zo miljarden, 10 miljard in een jaar blijkt niets te zijn voor de giganten. OpenAI moet dus geld gaan verdienen om mee te kunnen blijven groeien, anders gaan investeerders ook niet investeren en gaat OpenAI achterlopen op de concurrent.
Als je non profit bent en veel subsidies krijgt is het dus wel de bedoeling dat je die miljarden niet terugverdient. Dat is expliciet niet het doel van de non profit structuur.
Is het opslaan als contact niet een weg om je gegevens te delen? Volgens mij staat er zoiets in de voorwaarde van whattsapp. Niet dat Facebook of OpenAI iets geven om de privacy van hun gebruikers :+
Anoniem: 298277 @jdvv18 december 2024 20:47
Via een wa.me link hoef je geen contact op te slaan
In het filmpje staat dat
+1-800-2428-478
eigenlijk gelijk is aan
+1-800-CHAT-GPT

Gezien hoe vaak dergelijke "verwoording" gebeurt in Amerika, verbaast het me wel dat whatsapp dit niet ondersteunt in hun wa.me dienst.
Je kunt ook gewoon een nieuwe chat starten en in het zoekveld naar je Contacten, een telefoonnummer typen!
En dat is nou een feature dat ik niet snap waarom dit niet in de normale whatsapp zit.
Ja werkt in 1x ook in het Nederlands.
Damn. Dat is wel nice en zou het volop gebruiken als ik nog op WhatsApp zat. Hopen dat het ook naar Signal komt! :)
Je kunt natuurlijk ook gewoon de ChatGPT app installeren
Eigenlijk vind ik die term 'chatten' toch wel ietwat misplaatst want letterlijk vertaald betekent chatten eigenlijk praten. Alleen mensen kunnen met mekaar praten maar een robot kan gewoonweg niet praten en dit puur en alleen standaard logaritmes zijn. Gevaar daarvan blijf ik vinden dat zo'n logaritme aan alle kanten beinvloed kan worden en mensen op een totaal fout spoor zetten. Dus ik vind dit een zeer gevaarlijke ontwikkeling vinden en zeker al onder het mom dan van drempelverlaging.
Jij hebt duidelijk nooit met Chatman gesproken gechat! :)
Nee het zegt mij inderdaad helemaal niets.
Ik ben Chatman! Supersnel met MSN!
Oh, wauw, dank daarvoor. Veel grappigere reclame dan die kattenmeuk van tegenwoordig. Ik hou wel van dat soort zelfspot dat je "stiekum" toch beïnvloed.
Praten met een computer kan dus tegenwoordig ook. We hadden al langer chatbots, ook daar komt de term chat al tig jaar in terug.
Mwah, het verschil is dat een computer niet kan praten en alleen vanuit logaritmes teksten kan genereren. Alleen blijft dit voor een computer puur een berekening en dit niets met nadenken te maken heeft.

Een computer zal b.v. bij dezelfde vraag altijd hetzelfde antwoord genereren maar een fysiek mens zal dit niet altijd doen. Dit hangt dan weer van een situatie af wanneer de vraag gesteld word en een mens dan verder zal gaan vragen en na gaat denken.

[Reactie gewijzigd door Roel1966 op 18 december 2024 21:35]

Dan is praten ook gek want mensen typen. En praten niet.
Ja daar heb je wel een punt, maar je snapt denk ik wel wat ik bedoel te zeggen, of ja, schrijven.
Haha ja maar dat zeggen we ook niet. Indd chatten ;) of MSN’en.
MSN'nen is ook ondertussen al antiek en het nu dan even appen is :)
Of ja wat al helemaal antiek is is even ICQ'en...

[Reactie gewijzigd door Roel1966 op 18 december 2024 22:17]

Een computer zal b.v. bij dezelfde vraag altijd hetzelfde antwoord genereren maar een fysiek mens zal dit niet altijd doen.
Dat doet AI dus niet. Maak je er zelf wel eens gebruik van? En ook na de recentere ontwikkelingen en modellen? Het verschil met traditionele chatbots is juist dat AI bots zo'n beetje menselijk zijn en je dus ook steeds allerlei verschillende opties en antwoorden geven en er echt rekening gehouden wordt met alles wat er in een gesprek gebeurt. Het verloopt exact zoals jij een conversatie met een mens voor je ziet. Zelfs op dezelfde vraag komen verschillende antwoorden en oplossingen. Zoals ook door @Quintiemero aangehaald, chatten heeft in het digitale tijdperk sowieso een andere betekenis dan de letterlijke vertaling.
Maak je er zelf wel eens gebruik van?
Ja wel eens gedaan maar ik ben gewoon niet kapot van die hele AI ontwikkelingen en blijf het gevaarljk vinden.
Begrijpelijk, er zijn ook niet enkel voordelen. Tegelijkertijd vind ik wel dat als je mee wil praten over dit onderwerp, ik het wel netjes vind als je ook op de hoogte bent van de recentere ontwikkelingen en weet waar je je mening op baseert. Het lijkt nu of je nog niet helemaal duidelijk hebt wat het kan en de mogelijkheden. Dat is niet erg, maar een onderbouwing die niet klopt kan ook gevaarlijk zijn en uitspraken doen in die situatie is niet altijd verstandig. En juist als je zelf ergens niets mee hebt en anderen voor iets wil waarschuwen, is het goed om op de hoogte te zijn van waar je je tegen keert. Het is nou eenmaal een ontwikkeling die blijft en een razendsnelle ontwikkeling doormaakt - het is al totaal iets anders dan een jaar geleden.
O nou, ik lees wel alles wat AI betreft en probeer ook natuurlijk dingen uit dus het is niet zeg maar totaal ongefundeerd. En tja, je word al automatisch met AI robots geconfronteerd bij vele webshops, dus daar heb ik ook al een stukje ervaring opgedaan.
Dat is al een stap in de goede richting, maar als je marktleider ChatGPT niet in gebruik hebt dan is het toch lastig om te begrijpen hoe de antwoorden in elkaar steken. En wat de mogelijkheden verder nog zijn. Chatbots bij webshops zijn bijvoorbeeld vaak niets meer dan voorgeprogrammeerde teksten en processen om je te leiden naar pagina's met antwoorden of ter voorbereiding op het gesprek met een echt persoon. Eenvoudig te realiseren bij een specifiek onderwerp, maar dan krijg je dus inderdaad zoals je zei steeds hetzelfde antwoord. Als daar al AI bij komt kijken, dan is dat meestal minimaal. Bij echte AI merk je bijna geen verschil meer met een mens, tekst of media, AI begrijpt het allemaal en je kan er hele, unieke, gesprekken over hebben. Welk onderwerp 't ook is. En het gaat veel verder dan antwoord geven, het maakt ook van alles, zoals je een aanvraag bij een mens neer zou leggen met een enorme wachttijd of zelf flink wat tijd moet investeren om te bereiken wat AI je in minder dan 30 seconden op een presenteerblaadje aanbiedt.
Ja, het punt is alleen dat ik dus met een fysiek mens wil praten en je dan zeker online geeneens meer zeker van kan zijn, dat vind ik dus een benauwend en eng idee.
Aan de andere kant heb ik liever een goed geïnformeerde AI dan een aan Microsoft gelieerde adviseur als ik wat opzoek over bijvoorbeeld Office, want het moet al een heel erg slecht getrainde AI of LLM zijn om slechtere antwoorden te geven. De meeste bots op webshops zijn echt niet op het niveau van een goede LLM, en ik vermoed sterk dat de meeste alleen naar sleutelwoorden kijken.
Aan de andere kant heb ik liever een goed geïnformeerde AI dan een aan Microsoft gelieerde adviseur als ik wat opzoek over bijvoorbeeld Office
Voor dit soort zeg maar technische vragen vind ik AI dan weer wel zinvol en oke, dan zal een fysieke medewerker ook niet veel anders doen dan een pc gebruiken om een antwoord te vinden.
De chatbots die we kennen zijn niet zo geweldig, als je afwijkende vragen stelt weten ze het niet meer, die dingen zijn niet meer als een veredelde woordenboek/voorgeprogrammeerde teksten, AI is daar een stuk beter in.

[Reactie gewijzigd door mr_evil08 op 18 december 2024 21:36]

Zeker, chatbots zijn in de loop der jaren sowieso amper verbeterd en vaak heel erg gericht op één doel of op een bepaald onderwerp. Chatman kwam 20 jaar geleden al aardig in de buurt van hoe de chatbots het vandaag nog steeds doen.

Maar het ging me ook meer om de term, dat 'chat' al heel lang wordt gebruikt om ook 'praten met een computer' aan te duiden. Met AI ligt dat inderdaad alleen nog maar dichter bij het echte 'chatten', omdat de gesprekken nog veel menselijker zijn.
Een LLM is ook helemaal niet bedoeld als vraagbaak. Mensen gebruiken het zo maar het is maar een bijwerking.

Wat ze goed kunnen is tekst genereren. Kennis oplepelen is geen kernpunt van ze. Dan moet je echt de zoekmachine integratie hebben voor grounding.
Die algoritmes kunnen tegenwoordig dus wel praten. En in meerdere talen. Dat de werkwijze niet helemaal zo werkt als wat wij zien als echte intelligentie betekend niet dat het meteen gevaarlijk of waardeloos is. Gewoon een nieuwe tool met nieuwe mogelijkheden en eigenaardigheden

[Reactie gewijzigd door YGDRASSIL op 19 december 2024 09:20]

Ik denk dat je of de mens overschat of de neurale netwerken overschat. Natuurlijk komt er meer bij kijken bij een mens dan alleen het neurale netwerk (andere chemische processen hebben ook invloed immers). Maar uiteindelijk werken zowel AI als mensen met natuurlijke processen. Als je een neuraal netwerk als een "algoritme" (niet "logaritme") aan duidt dan heb je echt de boot gemist. EDIT: Natuurlijk heeft een LLM niet dezelfde capaciteiten als een mens, maar qua "chatten" zit het er echt wel dicht tegenaan en er zit natuurlijk een enorme berg aan kennis in.

Of je gaat er van uit dat "de geest" iets is dat buiten de natuurwetten staat natuurlijk, maar dan ga je niet uit van wat we weten van het brein in de wetenschap en dan zijn we uitgepraat.

[Reactie gewijzigd door uiltje op 20 december 2024 17:10]

Of je gaat er van uit dat "de geest" iets is dat buiten de natuurwetten staat natuurlijk, maar dan ga je niet uit van wat we weten van het brein in de wetenschap en dan zijn we uitgepraat.
Ik weet niet precieze percentages maar dat valt behoorlijk tegen van wat de wetenschap en de psychologie weet van het menselijke brein. Net als natuurwetten waarbij je al iets simpels als het weer als voorbeeld kan nemen, niets zo onvoorspelbaar als het weer kan je letterlijk nemen.
Natuurlijk weten we lang niet alles. Maar we weten wel de principes van de werking, en we hebben duidelijke aanwijzingen dat er geen geest is. Zo kan bij beschadiging van het brein de persoonlijkheid van iemand fundamenteel wijzigen en hetzelfde geldt natuurlijk bij (zwaarder) drugsgebruik.
duidelijke aanwijzingen dat er geen geest is
Die mening deel ik niet met je maar goed, denk niet dat het zinvol is dat te bediscussieren hier.
Qua user interface en gebruiksgemak is dat natuurlijk wel een mooie oplossing voor snelle vragen. Even los van of je dit via whatsapp zou willen doen natuurlijk....
Dit kon allang met Copilot...beetje laat Chatgpt 😅
Bij veel vragen krijg je als antwoord dat ie het niet echt weet omdat de informatie maar is bijgwerkt tot januari 2022.
Ja dat is het gevolg van het nog niet integreren van de zoekmachine.

Op dit item kan niet meer gereageerd worden.