Android Authority: code wijst op standaard ChatGPT-zoekmachine in Android

Broncode in de Android-app van ChatGPT wijst erop dat de chatbot in de toekomst mogelijk als standaardassistent kan worden ingesteld. In dat geval kunnen smartphonegebruikers Google Assistent vervangen. Ook werkt maker OpenAI aan een tile voor ChatGPT.

Dat blijkt uit code in een recente versie van de Android-app, die Android Authority ontdekte in een teardown. Die code zit in versie 1.2023.352 van de app, die vlak voor kerst uitkwam. In die app is een string verstopt met de naam com.openai.voice.assistant.AssistantActivity. Die functie is volgens Android Authority standaard uitgeschakeld, maar de ontdekkers schakelden haar handmatig in. Vervolgens verschijnt er een overlay over andere apps heen met een animatie, maar Android Authority zegt dat de functie zelf echter nog niet werkt.

Volgens de site kunnen de code en de animatie erop wijzen dat ChatGPT in de toekomst als assistent in Android kan worden gebruikt. Nu kunnen gebruikers standaard Google Assistent oproepen vanuit het vergrendel- of thuisscherm, maar het is ook mogelijk een andere stemassistent, zoals Alexa of Home Assistant, in te stellen. Mogelijk voegt OpenAI daar ChatGPT in de toekomst aan toe. De enige manier om de chatbot nu op Android te gebruiken, is door de app te openen; ChatGPT heeft bijvoorbeeld nog geen widgets.

Android Authority vond ook XML-verwijzingen naar de functionaliteit, zoals de voice-interaction-service- en recognitionService-tags. Die tags zijn nodig om Android te vertellen wat de standaardassistentapp moet zijn, maar volgens Android Authority ontbreken andere benodigde tags daar nog wel voor.

Volgens Android Authority zitten er in de app ook verwijzingen naar een aparte tile voor ChatGPT. Gebruikers kunnen die tiles in het dropdownmenu van Android zetten en daar eigen commando's aan koppelen. Die tiles zijn snelkoppelingen om bijvoorbeeld wifi aan en uit te zetten, maar appmakers kunnen ook hun eigen tiles maken. Home Assistant doet iets soortgelijks. De code van de ChatGPT-app zou erop wijzen dat er een tile komt met een snelkoppeling naar ChatGPT's assistent, maar ook die functionaliteit werkt nog niet.

Door Tijs Hofmans

Nieuwscoördinator

05-01-2024 • 06:47

46

Reacties (46)

46
46
15
4
0
25
Wijzig sortering
hoe gaat dat werken met energieverbruik aan de Openai/server kant?
Ik hoorde eind vorig jaar een onderzoek op de radio dat 15 vragen stellen aan chatGPT een halve liter water verbruikt. daarnaast nog de Electra kosten, waarvan ik ook eerder heb gelezen dat dit niet mis is.

als elke Android (en windows 11/12) ongelimiteerd AI inzet, wordt dat geen probleem?
Heeft er iemand een idee of bron die mij kan helpen dit te begrijpen?
Een chatgpt query gebruikt veel meer energie dan een traditionelere zoekopdracht, schattingen die ik zie lopen uiteen van minimaal 3x zoveel tot 90x zoveel, afhankelijk van de query.

https://www.google.com/se...umption+chatgpt+vs+google

Als je dit standaard in gaat bouwen heeft dit een flinke impact op energieverbruik.

[Reactie gewijzigd door Znorkus op 23 juli 2024 03:31]

ik heb even een half uurtje doorgezocht op mijn eigen vraag en heb het volgende gevonden:

site: https://limited.systems/a...rch-vs-chatgpt-emissions/
beschrijving: een meta-onderzoek(je) van een ICT-Prof die cijfers uit verschillende artikelen naast elkaar legt.

TL;DR:
over efficenter worden van de google systemen:
the energy cost (van Google, ygg) was 0.0003 kWh per search, or 1 kJ. That corresponded to 0.2 g CO₂, and I think that was indeed a closer estimate...
my new estimate for energy consumption and the carbon footprint of a Google search is 0.00004 kWh and 0.02 g CO₂ (using carbon intensity for the US)...
So the energy consumption per conventional search query has dropped by 7x in 14 years.
vervolgens vergelijkt hij verschillende bronnen om het verbruik van OpenAi te duiden aan de hand van een google search:
There are several estimates of the energy consumption per query for ChatGPT. I have summarised the ones that I used in the following table. There are many more, these are the top ranked ones in a conventional search ☺.
Ref Estimate (kWh/query) Increase vs Google search
[1] 0.001 - 0.01 24x - 236x
[2] 0.0017 - 0.0026 40x - 61x
[3] 0.0068 160x
[4] 0.0012 28x
[5] 0.0029 68x
Hij concludeert:
So we can conclude that ChatGPT consumes between fifty and ninety times more energy per query than a conventional ("Google") search, with sixty times being the most likely estimate.
en waarschuwt:
Now, if we want sustainable ICT, then the sector as a whole needs to reduce its emissions to a quarter from the current ones by 2040. The combined increase in energy use and growth in adoption of ChatGPT-like applications is therefore deeply problematic.
ik ben niet gerustgesteld
Omdat ik Wh en dergelijke erg abstract vind, heb ik even aan ChatGPT gevraagd hoe lang een lampje van 5 W op het verbruik van een google search kan branden:
"Je kunt de brandtijd van een lampje berekenen door de capaciteit van de batterij te delen door het vermogen van het lampje. In dit geval is de capaciteit van de batterij 0,04 Wh en het vermogen van het lampje 5 W. Om deze waarden te vergelijken, moeten we ze in dezelfde eenheid uitdrukken. Vermogen wordt uitgedrukt in watt (W) en energie in wattuur (Wh). Aangezien 1 Wh gelijk is aan 1000 mWh, is 0,04 Wh gelijk aan 40 mWh. Om het vermogen van het lampje uit te drukken in milliwatt (mW), vermenigvuldigen we het met 1000. Het vermogen van het lampje is dus 5000 mW.
De brandtijd van het lampje kan worden berekend door de capaciteit van de batterij te delen door het vermogen van het lampje. De formule is als volgt:
Brandtijd=Vermogen van het lampje/Capaciteit van de batterij​
We weten dat de capaciteit van de batterij 40 mWh is en het vermogen van het lampje 5000 mW. Laten we deze waarden invullen in de formule:
Brandtijd=40 mWh​/5000 mW=0,008 uur
Dus als je een lampje van 5 watt hebt dat 0,04 Wh mag verbruiken, kun je het lampje ongeveer 8 minuten laten branden."

LOL dat ging dus goed tot de omrekening naar minuten. 0,008 uur is 28,8 seconden: een LED lampje van 5 Watt kan dus 28,8 seconden branden op een google search. In het "meest waarschijnlijke" geval (x60) kan het verbruik van een chatGPT voor 1728 seconden een lampje laten branden, of 28m48s

komende half uur dus maar even in het donker zitten om te compenseren

[Reactie gewijzigd door Brattoes op 23 juli 2024 03:31]

Ligt eraan als je anders 3 tot 90x moet zoeken voordat je je antwoord krijgt en nu (met ChatGPT) 1 keer kost het dom gezegd precies even veel energie...

Daarnaast is zoeken al 30 jaar geoptimaliseerd en AI moet daar nog aan beginnen...
Dit vooral. Google heeft 20 jaar aan optimalisatie van energie verbruik van de zoekfunctie achter de rug. Vind het eerlijk gezegd zelfs vreselijk mee vallen als AI op 100x het gebruik start. Kijkend naar de aandacht die de techbedrijven ook hebben voor lokaal draaiende microAI modellen kon het nog wel is zo zijn dat je straks bij AI verzoeken voor 90% niet eens echt een server hoeft aan te spreken maar je eigen hardware het werk doet.
kon het nog wel is zo zijn dat je straks bij AI verzoeken voor 90% niet eens echt een server hoeft aan te spreken maar je eigen hardware het werk doet.
dit is wat mij vandaag ook bezig houdt. hoe realistisch is het dat de telefoons (en pc's) dit zelf (kunnen) gaan draaien?
Trainen van dit soort modellen kost gigantisch veel energie maar als je eenmaal een model hebt dan kost het maar een beetje energie om er een antwoord uit te krijgen.
Vergelijk het met Google Search die eerst een database van alles aan moet leggen voordat wij er zoek opdrachten naartoe kunnen sturen.
In het artikel wat ik doorklinkt staat:
Volgens het onderzoeksbureau SemiAnalysis had OpenAI 3.617 Nvidia HGX A100-servers nodig, met in totaal 28.936 gpu's, om ChatGPT te draaien. Dit betekent dat dit systeem ongeveer 563 MWh per dag gebruikt...Toen ChatGPT nog in de trainingsmodus was, liep dit verbruik op tot 1.287 MWh per dag.
Dus ja, ik zie wat je bedoelt. maar ik vind 563MWh per dag vrij veel, Nederland verbruikt als land zo'n 120.000/365=380MWh per dag. |:( Zoals hieronder vermeld: inderdaad een misrekening
Dit moet duizend keer meer zijn, dus 380GWh. Andere orde dus! Excuses |:(

hoe veel meer verbruik gaat er zijn als er exponentieel (vermoed ik) meer taalalgoritmes worden gebruikt?

[Reactie gewijzigd door Yggdrasiel590 op 23 juli 2024 03:31]

Klopt je berekening wel? Ik vermoed dat je een factor 1000 verschil hebt
Het verbruik in Nederland is 120 miljard kWh per jaar
Dit is 120.000.000.000 kWh, oftewel 120.000.000 MWh.
Per dag is dat 328.767 MWh
Dus ja, ik zie wat je bedoelt. maar ik vind 563MWh per dag vrij veel, Nederland verbruikt als land zo'n 120.000/365=380MWh per dag.
Volgens mij mis je een factor 1000. 120 miljard KWh = 120mln MWh / 365 = 325.767 MWh per dag
325.767 MWh per dag
Is dat 325 duizend of 325 ? Zeer verwarrend.
Het probleem hier is vaak dat veel mensen de punt als duizendtallen scheider gebruiken terwijl dat ook, net als de daar op veel gelijkende komma, vaak een decimaalteken is.

Ik gebruik nooit punten als duizendtallen scheider, maar gewoon een spatie als het getal minimaal zeven cijfers heeft.
In Nederland horen we gewoon punt voor duizendtallen en komma voor decimalen te gebruiken. ;)
Omdat iedereen (o.a. door internet) zo lekker internationaal bezig is, wordt het met name voor Nederlanders steeds verwarrender wat er bedoeld wordt. Ik vind de hier geopperde spatie een heel goed alternatief. Ik heb net even bij LibreOffice gekeken, bij cellenopmaak, maar de spatie komt niet voor. Misschien iets voor de toekomst.
een apostrof is mijn voorkeur, 10'000 keer minder verwarrend :)
Ware het niet dat een apostrof een betekenis heeft in een getal, evenals aanhalingstekens.
Maar voor eigen gebruik werkt het natuurlijk prima.
Welke betekenis dan?
Minuten, seconden bijvoorbeeld.
Maar wat ik al schreef, voor eigen gebruik prima.

[Reactie gewijzigd door Aldy op 23 juli 2024 03:31]

Duizend. Engelstaligen gebruiken een komma, wat verwarrend kan zijn. Werk veel met getallen en bedragen en dan werkt een separator heel prettig.
Die 120.000 moet je alleen nog even 120.000.000 MWh van maken. Volgens je bron is het jaarverbruik 120 miljard KWh, ofwel 120 miljoen MWh. Hiermee komt het NL verbruik op 328.767 MWh per dag uit.
Hoi, ik vind het verbruik ook veel, maar het dagverbruik van NL zit je er hier volgens mij 3 nullen naast. 120.000.000.000 kWh/365=380.000.000kWh=380.000 MWh per dag.
Het kan ook niet 380MWh per dag zijn, want we hebben meerdere GigaWatts aan opgesteld opwekkingsvermogen in energiecentrales en windparken
Bor Coördinator Frontpage Admins / FP Powermod @-=bas=-5 januari 2024 09:13
Trainen van dit soort modellen kost gigantisch veel energie maar als je eenmaal een model hebt dan kost het maar een beetje energie om er een antwoord uit te krijgen.
Zou je dat met een objectieve bron kunnen onderbouwen? Ik denk dat het niet klopt namelijk. Ook het genereren van een antwoord kost behoorlijk wat power, zeker gezien snelheid ook een ding is. En wat te denken van bv het creëren van plaatjes? Ik kan mij niet voorstellen dat dat geen zwaar proces is.
Trainen van dit soort modellen kost gigantisch veel energie maar als je eenmaal een model hebt dan kost het maar een beetje energie om er een antwoord uit te krijgen.
Gezien het soort hardware wat je nodig hebt om een getraind model überhaupt te kunnen draaien betwijfel ik ten sterkste of deze uitspraak klopt.
Als je zelf in een bibliotheek de antwoorden op die 15 vragen op moet zoeken, ben je ook minimaal vier koppen koffie verder voor je iets nuttigs hebt gevonden.

Ik denk dat een deel van het water- en energieverbruik dat AI kost om een antwoord op een vraag te geven, aan de andere kant weer bronnen bespaard doordat de gebruiker nu in ~10 seconden een antwoord heeft in plaats van dat deze zelf een uur gaat zoeken. Randvoorwaarde hierbij is wel dat het een nuttige vraag is en de gebruiker daarna klaar is. Ik denk namelijk dat zodra AI perfecte antwoorden geeft, het aantal vragen ook omhoog gaat.

Uiteindelijk gaat gebruik van AI de personal computer vervangen. Waarom zou je achter een monitor zitten om je werk te doen, als de machine het zonder jou beter kan?
dat AI Taalalgortimes (kunstmatig en intelligent is AI allerminst) tijdbesparend gaat zijn en nuttige toepassingen heeft is volgens mij hier niet de discussie.

Het is mij de prijs die we er voor gaan betalen. Mijn bubble en daarom ook mijn vraag is Ecologisch van aard, en niet economisch. De ecologische prijs is het verbruik, de bijkomende uitstoot en grondstofontginnging (incl. (drink)water) die komen bij de ontwikkeling en het gebruik van deze systemen. Hierbij in acht genomen dat we dat ook bij de reuze centres van Microsoft, Meta, Google en collega's uiteraard ook kunnen (en moeten?) afvragen.

In een ander draadje op mijn initiële vraag is duidelijk dat er bij ChatGPT-achtige systemen rekening kan worden gehouden bij 60x meer energieverbruik dan in dit geval vergeleken met Googles zoek service. grote kans is dat er efficiënter zal worden gewerkt, maar met een exponentiële groei van gebruik ben ik benieuwd hoe.
Uiteindelijk gaat gebruik van AI de personal computer vervangen.
Dat denk ik ook. Microsoft is al jaren bezig zijn OS naar cloud/server te ontwikkelen. ChatGPT gaat daarbij helpen.

laten we niet vergeten dat we ons ruimteschip beschikbaar willen houden voor de volgende generaties gebruikers

edit:typos

[Reactie gewijzigd door Yggdrasiel590 op 23 juli 2024 03:31]

Mogelijk gebruikt maar niet verbruikt. Als je op koelwater doelt... Wat zullen de maandelijkse stroomkosten zijn... Dat moet in de tientallen miljoenen p.d. lopen
Dat is wel cool, namelijk dat geen enkele assistent nu het zelfde kan als Chatgpt,

Ik doe alle vragen en taken die ik heb met chatgpt premium want de andere die geven een fout antwoord
Ik doe alle vragen en taken die ik heb met chatgpt premium want de andere die geven een fout antwoord
Je suggereert daarmee dat de gratis versie eigenlijk niet functioneel inzetbaar is? Ik maar denken dat abonnees enkel profiteerden van voorrang bij de toegang tot de diensten.

Ik vind 20 dollar per maand trouwens wel stevig aan de prijs voor een 'zoekmachine'. Maar dat zijn slechts my two cents.
Als de gratis chatgpt niet zou bestaan dan zou ik die 20 euro er wel voorover hebben. Hoevaak ik naar er code snippet op zoek ben in via DDG. Aan het scrollen ben, comments aan het lezen trial en error. Net niet helemaal wat ik zocht.

En dan stel ik dezelfde vraag aan chatgpt en er rolt een keurig script uit. En als het niet niet is wat ik wil vraag ik of hij het aan wil passen en voila ik heb een keurig stukje code waar ik weer zelf op kan doorbouwen.

Ik zie het soms een beetje als een community die ik een vraag kan stellen en direct een antwoord krijg zonder na een half uur eerst een lmgtf antwoord te krijgen.

Ik hoop dat die goed integreert die chatgpt assistent. Ik zou het wel fijn vinden ook webhooks aan te kunnen roepen vanuit chatgpt assistent. We zullen wel zien wat het gaat worden.
Vertalen doet hij overigens ook (dan heb ik het over de gratis versie) vrijwel perfect, dan heb ik het over Chinees en Japans.
Klopt, ik gebruik premium omdat ik net wat meer nodig heb dan de gratis versie ja,

Buiten dat is het echt niet Alleen een zoek machine, het kan veel meer dan dat

[Reactie gewijzigd door Verwijderd op 23 juli 2024 03:31]

Verschil tussen ChatGPT-3 en 4 is best groot, groot genoeg voor mij om die € 20 per maand te verantwoorden. Voor het coden gebruik ik vooral de Jetbrains AI, die overigens met ChatGPT-3 werkt.
ChatGPT is ook niet feilloos.

Blind aannemen wat ChatGPT verzint is een groter risico dan AI an sich.
Tot nu toe heeft het correcte antwoorden gegeven 😄
Tot je specifieke dingen begint te vragen waar je zelf veel van afweet. GPT geeft constant flauwekul en foute informatie. En als je het verbetert komt die wel met een excuus.

Stom voorbeeld, ik vroeg overlaatst als mopje "whats updog?" Begon die vrolijk te vertellen dat dit grapje ook gebruikt wordt in Game of Thrones. Toen ik vroeg waar dan precies was het "ah neenee hoor. Ik bedoelde de memes op de GoT reddit." Maar als je dus niet doorgraaft neemt Jan Modaal dit maar gewoon als waar. En dit is 1 stom voorbeeld, maar er zijn er nog meer dan genoeg.

Mijn docenten in de jaren 90 wezen al op het belang van bronnen checken, maar dat lijken we allemaal collectief vergeten te zijn "want het stond op TikTok" of "ja maar GPT heeft het gezegd".
Bor Coördinator Frontpage Admins / FP Powermod @iqcgubon5 januari 2024 09:11
Mijn docenten in de jaren 90 wezen al op het belang van bronnen checken, maar dat lijken we allemaal collectief vergeten te zijn "want het stond op TikTok" of "ja maar GPT heeft het gezegd".
Het checken van bronnen is cruciaal. Ik heb Ai al eens 2x tegenovergestelde antwoorden zien geven op exact dezelfde vraag. "Ja, met X kan je .." en "Nee, met X kan je niet".

Bing chat geeft duidelijke bron vermeldingen maar ook daar zie je dat er soms zaken in de tekst worden opgenomen die in de bron niet terug te vinden zijn of die de bron niet onderschrijft. Ai kraamt helaas met regelmaat onzin uit.
Wat ik bedoel is, dat ik daarna ook zelf nog gezocht heb..
Wat zijn dingen die we aan Alexa of Google vragen: zet een timer, wat wordt het weer, simpele Wikipedia vraag (welke diersoort vind je bij x) of hulp bij koken (hoe lang moet ik x koken). Zeker die laatste 2 kan ChatGPT goed bij helpen
Inderdaad. Het is een beetje een dubbele: Google Assistant zegt bijna overal dat hij er niets van begrijpt, ook al is het een simpele vraag. ChatGPT gaat waarschijnlijk dan weer over-confident zijn en onzin verkopen als er geen grote zekerheid bestaat.

Maar ik ben blij dat het er komt, want de voice mode van ChatGPT werkt verrassend goed.
Ik zou graag willen dat de assistenten meerdere commando's tegelijkertijd kunnen verwerken;
Hey google zet een timer aan voor 10 minuten, voeg eieren toe aan het boodschappenlijstje en speel mijn favoriete kook muziek af.

Dan pas worden ze pas echt interessant. Ik gebruikte google assistent van het moment toen het uitkwam want het heeft veel potentie echter ben ik het steeds minder gaan gebruiken en ook maak ik nu gebruik van siri die nog dommer is.

inmiddels gebruik ik de assistente enkel voor het licht, tv uit te zetten en afspelen voor muziek, echter doe ik de benoemde dingen regelmatig ook handmatig
Als je heel langzaam praat dan kan je meestal wel meerdere commandos geven is mijn persoonlijke ervaring.
In het Engels kan je dit doet mits je het op de juiste manier zegt

"Turn on the light and play Music"

Helaas werkt dit voor de Nederlandse taal (bijna) niet
Ik gebruik de assistent bijna uitsluitend voor het aansturen van domotica... dat kan niet met ChatGPT.
Ben ik de enige die hier een gigantisch privacy risico in ziet?
Dat mensen echt alles in een AI database gaan plempen zonder door te hebben waar hun data eigenlijk heen gaat? Helemaal met een "gratis" versie??
Als iets gratis is.. dan ben je zelf het product.

In dit geval is dit het geven van data om het model te bouwen.
Maar op gegeven moment is het model klaar, dan kunnen er 2 scenario's komen:

1. Gratis gaat eruit, en alleen maar betalen

2. Gratis blijft erin, maar de data wordt op een andere manier gebruikt om geld te verdienen (verkopen van data, verkopen van het model etc etc)

Onder aan de streep, er moet een keer geld uit komen.
Kijk ook naar Samsung met de S24 die zijn hele nieuwe S-lijn promote rondom AI.
Ik vind het echt idioot, dit gaat natuurlijk ten koste van iedereen zijn privacy. Jouw data zal gebruikt worden om modellen verder te trainen en vermoedelijk ook om weer door te verkopen.

Op dit item kan niet meer gereageerd worden.