Google werkt aan generatieve AI in Assistent

Google werkt aan de integratie van generatieve AI in Assistent. Het bedrijf is al begonnen met dat werk in de mobiele app. Het gaat niet om een directe implementatie van Bard, maar om een nieuwe technologie.

Google schrijft in een interne e-mail dat het een grote kans ziet 'om te onderzoeken hoe een supercharged Assistent op basis van de nieuwste llm-technologie eruit zou zien'. Het bedrijf zegt dat er intern inmiddels aan wordt gewerkt, waarbij als eerste aan de mobiele variant wordt gewerkt. De huidige status daarvan is echter nog niet bekend. De interne e-mail is maandag verstuurd aan medewerkers en door Axios gepubliceerd.

Google wil zijn largelanguagemodeltechnologieën implementeren in Assistent. Hoe dat er in de praktijk uit komt te zien, is niet duidelijk. Google noemt in ieder geval niet expliciet een integratie van Bard, de huidige chatbot van het bedrijf. Bard is het eindproduct van de llm-technologie en dat kan voor Assistent dus nog anders worden.

Sinds Google Bard uitbracht, is het lange tijd onduidelijk geweest hoe die tool zich verhoudt tot de huidige slimme assistent. Het leek niet meer dan logisch dat de twee uiteindelijk in een of andere vorm zouden worden samengevoegd, maar over de manier waarop bleef Google altijd vaag.

Door Tijs Hofmans

Nieuwscoördinator

01-08-2023 • 09:49

56

Reacties (56)

56
56
22
3
0
26
Wijzig sortering
Generatieve AI in je assistent?
Dus als ik Google dan iets vraag, krijg ik geen antwoord van het internet (redelijk nauwkeurig), maar een antwoord wat een AI volledig uit zijn duim heeft gezogen?
Sorry hoor, dat lijkt me geen vooruitgang.
Misschien leert Google dan wel meer liedjes zingen of betere moppen tappen...
Het is verbazingwekkend te noemen dat we net een enorme doorbraak in LLM's hebben en er nu al over geklaagd wordt.

Ik zal je een klein geheim verklappen: deze LLM's worden steeds auccurater en beter.
Sterker nog, als je een LLM trained op specifieke data dan is het al veel beter dan een mens.
Men heeft bij NVidia de uitspraak gedaan dat momenteel een 10x GPT4 getraind wordt en binnen 18 maanden een 100x GPT4 getraind wordt. Deze zullen (volgens hun) nauwelijks of geen hallucinaties meer hebben.
Het blijft een statistisch model waarbij deze geen echte feitenkennis heeft - alleen waarschijnlijkheid. Nu gebruiken we dat als mens ook wel (veel minder absoluut) maar onze afleidingen kunnen veel abstracter zijn.

Het blijft een feiten doos met een heel knap ontsluitingsmechanisme die z'n eigen feiten niet kan controleren dus wel degelijk een kans houdt op hallucinaties. Net zoals een mens dat wel eens kan, daar niet van. Maar nieuwe inzichten verwacht ik niet - het is pure 'boekenkennis' zeg maar. Ook niet slecht overigens.

Maar een AI die grappen maakt?

Dus beter dan een mens op bepaalde deelgebieden: ja - maar beter in het algemeen? Nee.
Het blijft een statistisch model waarbij deze geen echte feitenkennis heeft.
Ik denk dat je het goed bedoelt maar niet helemaal correct uitlegt. Het probleem is dat men (nog) niet helemaal weet waarom dit correlatie systeem zo goed functioneert. Het geeft ook inzicht in hoe onze hersenen werken (als in, dat weten we ook nog niet). Als een LLM een klein gedeelte van onze menselijk functioneren stimuleren, mogelijk kunnen we de andere gedeelten ook op deze manier simuleren.
Hallucinaties zijn tevens een dagelijks begrip voor mensen. We leven allemaal in een eigen bubbel...

Het blijft een feiten doos met een heel knap ontsluitingsmechanisme die z'n eigen feiten niet kan controleren dus wel degelijk een kans houdt op hallucinaties.
Gezien we simpelweg de output kunnen laten controleren door deze weer als input aan te voeren, is het wel meer dan enkel een feitendoos. Zo'n simpel idee zorgde al weer voor een doorbraak, meerdere LLM's tegenover elkaar zetten. Het is het hele idee van reenforced learning zonder menselijke interventie. Daarnaast zijn er tientallen projecten zoals AutoGPT en platformen als Hugging face die laten zien dat dit echt nu al mogelijk is.

Maar nieuwe inzichten verwacht ik niet - het is pure 'boekenkennis' zeg maar. Ook niet slecht overigens.
Het probleem is, wat zijn nieuwe inzichten? Als ik een grote dataset heb en daar vragen over stel met een AI, dan kan ik letterlijk de vraag stellen: geef mij nieuwe inzichten in deze data. Dat is het hele business model dat Microsoft en Google wil doorvoeren in zakelijke omgevingen. Dit is perfect voor Business Analytics.

Dus beter dan een mens op bepaalde deelgebieden: ja - maar beter in het algemeen? Nee.
Dat lijkt mij allemaal simpelweg een kwestie van tijd. Historisch gezien is het geen discussie, computers hebben letterlijk alles vervangen. En als we kijken naar de huidige (voorlopige) resultaten, Google's Med-PaLM 2 haalt nu al dezelfde / betere resultaten als menselijke doktoren.
Het probleem is dat men (nog) niet helemaal weet waarom dit correlatie systeem zo goed functioneert.
Het idee is toch dat woorden/zinnen bij elkaar horen met een bepaalde waarschijnlijkheid? Dat is toch het onderliggende model. Waarom het zo goed functioneert? Die vraag kun je ook uitbreiden - waarom functioneert het soms zo bijzonder slecht terwijl het in veel gevallen juist prima functioneert? Hallicinaties daargelaten.
Dat lijkt mij allemaal simpelweg een kwestie van tijd.
Maar alleen dus gebaseerd op feiten (als in bestaande teksten/foto's/video's). Waarom is een grap leuk/niet leuk? Waarom is het ene schilderij mooier dan het andere? Het puur creatieve aspect blijft nog ongrijpbaar denk ik.

Overigens ben ik niet tegen AI of zo - alleen nog een beetje voorzichtig. :)
Het idee is toch dat woorden/zinnen bij elkaar horen met een bepaalde waarschijnlijkheid?
Ja, dat is correct maar uiteraard een sterke versimpeling van hoe het in de praktijk werkt. Het draait hier vooral om 'transformers' en 'Self-Attention'. Dat laatste is het beste uit te leggen door ChatGPT :D :
Het kernidee van een transformer is het self-attention mechanisme. In plaats van lineaire sequentiële verwerking, kijkt het naar alle woorden in de zin om de betekenis van elk woord te bepalen. Het berekent gewichten (attentiegewichten) voor elk woord, die aangeven hoeveel aandacht eraan moet worden besteed bij het begrijpen van andere woorden in de zin.
Het is dus niet enkel relaties tussen woorden maar er worden dus zwaartes aan woorden in zinsverband gemaakt. Dit zie je goed terug in vertalingen. Waar een machine normaal simpelweg woord voor woord vertaald en je dus rare zinnen krijgt, neemt een transformer architectuur een andere route en kijkt naar de gehele zin, neemt de belangrijkste context en 'vertaalt' dan pas. Het klinkt simpel maar het is een absolute doorbraak.

Waarom het zo goed functioneert? Die vraag kun je ook uitbreiden - waarom functioneert het soms zo bijzonder slecht terwijl het in veel gevallen juist prima functioneert? Hallicinaties daargelaten.
Goede vraag en het algemene antwoord is: it needs more data...
Maar ook dat is weer sterk oversimplificeren. Het zal in de praktijk een combinatie van zaken zijn. De vergelijking wordt sterk getrokken met het menselijke brein dat ook aparte segmenten heeft voor specifieke zaken. Waarschijnlijk zullen ze dus verschillende gespecialiseerde ML netwerken in moeten zetten voor specifieke taken. Een voorbeeld zag je met ChatGPT dat niet goed kan rekenen. Dat is niet heel bijzonder want het is getrained op taal, niet wiskunde. Maar als je ChatGPT combineert met Wolfram|Alpha, dan krijg je erg indrukwekkende resultaten.

Maar alleen dus gebaseerd op feiten (als in bestaande teksten/foto's/video's).
Mwa, daar is het inderdaad op getraind maar of het als creativiteit gezien wordt is nu dus de vraag.
Je zou kunnen claimen dat onze creativiteit ook gebaseerd is op feiten (als in bestaande teksten/foto's/video's). Daar komt ook het gezegde vandaan “If I have seen further it is by standing on the shoulders of Giants” (Isaac Newton). Men zou kunnen claimen dat huidige modellen niet creatief zijn maar dat zijn de meeste mensen ook niet echt... Die bouwen voort op wat ze weten of knopen 1+1 bij elkaar.

Het puur creatieve aspect blijft nog ongrijpbaar denk ik.
Zeker, maar dat maakt het juist ook zo mysterieus. Wat is creativiteit nou eigenlijk? Mogelijk zijn het simpelweg hallucinaties en logica. Dan zijn we dichterbij dan we denken met ChatGPT ;)

/Edit: voor wie echt een goed stuk hierover wil lezen, Arstechnica is je man:
A jargon-free explanation of how AI large language models work

[Reactie gewijzigd door Verwijderd op 22 juli 2024 21:20]

Dan zijn we dichterbij dan we denken met ChatGPT
:*)
it needs more data...
Het punt is nu juist dat het dus afhankelijk is/blijft van anderen die op basis van een hint/gevoel/fluke/eureka-moment een nieuwe combinatie uitproberen en dat documenteren (als de uitkomst relevant is). Daar is op zich niets mis mee.
Maar zelfs het combineren van al bestaande zaken kun je dus als creatief bestempelen als het resultaat zinnig is (of mooi). En aangezien we het dan niet meer hebben of een paar componenten, maar veel meer zou het ondoenlijk om alle combinaties uit te proberen en de uitkomst te beoordelen. En wie beoordeelt de uitkomst?
Bij onderzoek wordt van te voren bedacht welke onderdelen te varieren en welke juist niet om het aantal combinaties overzichtelijk te houden maar wie bepaalt welke onderdelen vaststaan en welke niet? Zou een AI dat ook al kunnen doen als er nog nooit een derdelijk onderzoek is geweest? Ik denk van niet want....It needs more data... :/
[...]
Zou een AI dat ook al kunnen doen als er nog nooit een derdelijk onderzoek is geweest? Ik denk van niet want....It needs more data... :/
DeepMind's Alfazero speelt Go en Schaak heel erg goed, en zonder data. Het heeft deze spellen zichzelf aangeleerd, en kreeg alleen de spelregels als input.
Maar dat is dan toch een voorbeeld van genoeg data? Als de spelregels bekend zijn dan is een dergelijke AI dus erg goed maar wat als de spelregels nog bedacht moeten worden (om te kunnen winnen/overleven)?
Het is een statistisch model, en dat is gelijk ook het enige wat er kan zijn, er zijn alleen feiten in het verleden. Al het andere is waarschijnlijkheid (zelfs in het verleden) zelfs wetenschap heeft het over waarschijnlijkheid (= waar (soort van feit) totdat er iets beters gevonden is)
Zelfs al komt uit een proef 100000 hetzelfde, zolang je niet alle mogelijke proeven gedaan hebt weet je nooit zeker dat dat altijd de uitkomst gaat zijn, waarschijnlijk is het echter wel
Nee toch? In de wiskunde hebben we toch 'echte' feiten: 1 + 1 is altijd 2. Heeft geen herhaling nodig. Is een uitgangspunt. En ook nog herleidbaar vanwege het achterliggende concept (tellen). Dat is het 'besef' wat mensen hebben - dat is welliswaar soms onjuist maar we hebben wel degelijk uitgangspunten die we niet op statistiek baseren.

En daarnaast hebben we dan weer filosofie....wat erg complex moet zijn voor een AI die alles op statistiek baseert vermoed ik.
Ik zal je een klein geheim verklappen: deze LLM's worden steeds auccurater en beter.
Bedoel je met 'accurater en beter' dat LLM's nu voor het grotere publiek desgevraagd heel overtuigend kunnen beargumenteren dat Covid vaccinaties levensgevaarlijk zijn, de klimaatverandering niet door mensen komt en dat Trump de verkiezingen bij eerlijk tellen wel had gewonnen?
Sterker nog, als je een LLM trained op specifieke data dan is het al veel beter dan een mens.
Nadat natuurlijk eerst een mens die heel specifieke data bij elkaar heeft gezocht, gefilterd en voor het LLM model werkbaar heeft gemaakt. En vervolgens de onmisbare training gaf zonder welke het LLM model geen enkel zinnige informatie had kunnen halen uit die specifieke data.
Verder heeft zelfs de met de beste data en ideaal getrainde LLM bij het geven van een antwoord op een vraag geen enkel idee of het de meest briljante en zinvolle reactie aller tijden is of iets wat een kleuter van vier had kunnen bedenken. Dus hoeveel beter 'veel beter' LLM is dan een mens is nog wel de vraag.

Aardig paradoxje is natuurlijk dat de onderwijswereld zit te springen om een LLM die kan aangeven of een stuk tekst met een andere LLM is gemaak of zelf geschreven is door een student. Je zou denken dat juist LLM getraind met een triljoen stukken tekst hier moeiteloos het onderscheidt in maakt. In de orde van 'met boeven vang je boeven'. Helaas is dit nu net iets wat die superieure LLM's niet kunnen. Zo slim zijn ze zelfs op hun eigen terrein dus nog niet...
Bedoel je met 'accurater en beter' dat LLM's nu voor het grotere publiek desgevraagd heel overtuigend kunnen beargumenteren dat Covid vaccinaties levensgevaarlijk zijn,
Nee, ik bedoel het 'hallucinatie' probleem. Dus vrijwel of geen hallucinaties.
De grap is dat GTP4 initeel (zonder restricties) enorm goed was in de de punten die je aangeeft. En dat was zeker al weer een half jaar terug.

Nadat natuurlijk eerst een mens die heel specifieke data bij elkaar heeft gezocht, gefilterd en voor het LLM model werkbaar heeft gemaakt. En vervolgens de onmisbare training gaf zonder welke het LLM model geen enkel zinnige informatie had kunnen halen uit die specifieke data.
Nee, dit bedoel ik totaal niet. Volledig ongestructureerde data als input en dan daar samen met een LLM mee verder doorwerken. Zoals Google NotebookLM

Verder heeft zelfs de met de beste data en ideaal getrainde LLM bij het geven van een antwoord op een vraag geen enkel idee of het de meest briljante en zinvolle reactie aller tijden is of iets wat een kleuter van vier had kunnen bedenken.
Nou, je kan het letterlijk vragen om een antwoord te geven als een kleuter van 4 (ELI4)... Ik gebruik dit zelf erg veel om technische of complexe problemen uit te leggen. Iemand vroeg mij laatst wat een algoritme was en de LLM gaf mij een antwoord wat veel beter was dan ik had bedacht.

Aardig paradoxje is natuurlijk dat de onderwijswereld zit te springen om een LLM die kan aangeven of een stuk tekst met een andere LLM is gemaak of zelf geschreven is door een student.
Persoonlijk denk ik dat deze discussie eigenlijk al is afgerond. Het is gewoonweg niet mogelijk om dit onderscheid te maken. OpenAI heeft dit al opgegeven en daarom pushen ze in de US ook zo op metadata kenmerken voor AI gegenereerde data. Maar dat lijkt mij voornamelijk om de politici tevreden te krijgen. In de praktijk gaat het weinig veranderen aan het probleem.

Het is wel een mooi voorbeeld van hoe 'ouderwets' de reactie is. Er zijn scholen die het omarmen en studenten leren dit hulpmiddel (want dat is het momenteel) te gebruiken. En er zijn scholen die alles proberen te verbieden maar eigenlijk helemaal geen mogelijkheid hebben om dit te doen...

Er zijn wel een dozijn oplossingen voor het 'school' probleem maar dat vereist creativiteit en een verandering van werkwijze. En mensen zijn inherent lui en willen niet veranderen, dus dan krijg je een boel geklaag. Simpelweg een paar steekvragen op een ingeleverd stuk en het probleem is al opgelost.
om een antwoord te geven als een kleuter van 4
Dat is het mooie - alleen het taalgebruik verandert - in werkelijkheid kan een reguliere kleuter op bepaalde vragen geen antwoord geven maar dat besef heeft de AI dus niet. O-)
die heel specifieke data bij elkaar heeft gezocht
Is dat niet noodzakelijk dan? Of te wel: als mijn 'bron' keuze "Ufo's en andere buitenaardse ontmoetingen" is, of "National Geographic" - allebei tijdschriften - dan besef ik dat de ene bron de andere niet is.
Wie 'vertelt' de AI nu dat bepaalde data misschien geen data is? Gebruikt deze ook science fiction romans? En zo ja - accepteert deze dan alle 'feiten' die passen binnen de belevingswereld van dat boek?
Of wordt metadata toegevoegd (door een mens): 'dat boek is fictie' - dus wel te gebruiken voor zinsbouw en verhalenkennis maar niet natuurkundige kennis.
Dat is het mooie - alleen het taalgebruik verandert.
Haha, ik bedoelde eigenlijk de uitleg voor een kleuter van 4. Maar als ik de vraag stel van een kleuter van 4 dan weet hij wel: Regen is leuk om in te springen! Yay! 🌧️🌈
Dat is niet slecht maar inderdaad ook niet echt correct.

Is dat niet noodzakelijk dan?
De brondata bij deze algemene LLMs zijn het gehele internet (geselecteerde bronnen zoals reddit). De selectie wordt niet geheel duidelijk gemaakt, enkel percentages (vandaar de rechtzaken).

Als je echt wilt weten hoe dit allemaal werkt, dan kan je het beste een keer je eigen LLM bouwen:
https://thomascherickal.m...wn-llm-model-2598615a039a
Als je geduld hebt, dan kan je wachten op de commerciële oplossingen die men nu bouwt.
desgevraagd heel overtuigend kunnen beargumenteren dat Covid vaccinaties levensgevaarlijk zijn
Ook een goed voorbeeld: dezelfde AI kan dus met 100% stelligheid beweren dat vaccinatie slecht is maar ook met 100% stelligheid dat het noodzakelijk is. Logisch zegt men dan, want dat ligt aan de vraagstelling. Maar geeft een dergelijke AI dan een eerlijk antwoord op de vraag "Is vaccinatie goed of fout" ? Of is dat gewoon een kwestie van 100.000 entries met 'goed' en 90.000 entries met 'slecht', dan is het dus goed? Zo werken mensen natuurlijk niet. Alleen de 'kwantiteit' van een bewering is voor ons mensen niet voldoende. We bekijken de bron, we bekijken de context, we bekijken dus zelfs de achtergrond van de beweerder (Heeft die persoon naasten verloren aan Covid? Dan verandert de bias van die persoon vermoedelijk).
Google Assistant is momenteel best wel dom. Dus ik zie het nut er wel van wanneer ze in elk geval de manier van input geven verbeteren. Op dit moment kent assistant een beperkte set aan commando's en alle andere dingen worden opgezocht op internet. Maar dan krijg je ook vaak slechts 1 antwoord. Ook daar zou nog wel winst te behalen zijn.

Ik wacht het af, ik gebruik assistant heel weinig omdat het te weinig waarde toevoegt voor mij momenteel.
Klopt, je gaat niet graag praten tegen een AI totdat het echt voelt als een persoon en totdat het echt nut heeft. Ik kan net zo snel googlen hoe hoog de eiffeltoren is dan dat ik het vraag aan Assistent, met het risico dat hij me niet goed verstaat of heel wat anders bedenkt.

Ik heb ook altijd een hekel aan chatbots online, maar bij ChatGPT merk ik dat chatten best leuk is, hij is echt slim en blijft je vaak verbazen. En begrijpt je vaak goed. Als Google dat weet te bewerkstelligen zie ik wel toekomsten voor een assistent.

Ik moet wel zeggen dat innovatie bij Google maar schaars is. Hoe lang is de assistent wel niet gemeengoed, en wat is er nou echt verbeterd in de tussentijd. Ja, op een gegeven moment kon hij meer talen zoals NL, maar dat was het wel een beetje.
Klopt, je gaat niet graag praten tegen een AI totdat het echt voelt als een persoon en totdat het echt nut heeft. Ik kan net zo snel googlen hoe hoog de eiffeltoren is dan dat ik het vraag aan Assistent, met het risico dat hij me niet goed verstaat of heel wat anders bedenkt.
Daarom moet er een verbod komen op 'undercover AI' voor bedrijven. Alle AI moet dit aangeven zodat je niet denkt dat het een mens is wanneer het AI is. Sowieso vind ik machines/AI die zich voor doen als mensen een verschrikking. Allemaal FLUFF door mijn informatie heen met bloat-speak van de AI.
Google Assistant is echt streets ahead op Siri, dus daar kunnen ze ook wel profiteren van wat AI
Het kan toch prima zaken van het internet plukken? A la Bing chat bijv.. Daar dan een leesbaar verhaal van maken van de top links, of zelfs al bepalen wat de meest relevante links zijn en de links zo ordenen (met de huidige focus op SEO drijft er steeds meer bagger naar de top van zoekresultaten).

Het kan ook bepaalde analyses doen op wat je invoert die behulpzaam kunnen zijn bij het aansturen van het reguliere zoek algoritme, bijvoorbeeld over de toon van wat je typed (daar is AI best sterk in over het algemeen).
Ik vraag veel aan chatgpt. Vooral commandlines voor linux is het handig voor. Hoewel het vaak zaken verzint vanuit mijn vraag. Dan vraag ik om iets te doen met bijvoorbeeld 'kan het ook recursief'. En dan komt hij met een -r in de commandline maar die kent het programma helemaal niet.
Dan zeg ik dat en maakt hij een bash script dat wel werkt. Maar dat fantaseren van parameters of method names e.d. vanuit mijn vraag terwijl het niet bestaat en het dat weet. Want als ik zeg 'da's fout' zegt ie in heel veel woorden 'sorry, je hebt gelijk app X of object X ondersteund dit niet.. hier is alternatief'

Zelfs in GitHub Copilot heb ik dat. (die pushed alleen code)
Komt ie met antieke framework properties aan van 2.0 en 5.2 terwijl ik in 6.2 werk. Maar dat is te nieuw :)

[Reactie gewijzigd door MrMonkE op 22 juli 2024 21:20]

Dat ligt dan meer aan jouw prompt dan aan het antwoord van chatGPT.
Wees specifieker in wat je verwacht. Zo start ik al mijn prompts altijd in de trend van 'Act as a senior X working in programming language Y with design pattern Z in mind.'
Hoe meer info je geeft, hoe accurater het antwoord zal zijn. Uiteraard recente versies niet, gezien de data niet beschikbaar is.
Nee, het ligt aan de AI.
Zoals Xven hieronder aangeeft.
Dat is omdat chatGPT die kennis niet in huis heeft, maar de kans berekend op het volgende woord elke keer. ChatGPT geeft wel een bepaald gewicht aan de door jou gespecificeerde app (aangenomen dat die bekend genoeg is dat die significant in de trainingsdata van chatGPT voorkwam), maar een groot deel van het gewicht zit em ook in wat je vraagt aand handeling. Als veel antwoorden op vergelijkbare vragen voor andere apps wel die -r bevatten, dan zal chatGPT gewoon die -r er in zetten. Als je meer informatie aanlevert zoals 'dit programma ondersteund -r niet', dan gaat chatGPT weer een logisch antwoord bedenken en neemt deze nieuwe context daarin mee, zo komt die aan die 'sorry je hebt gelijk'. ChatGPT heeft geen flauw idee of je gelijk hebt, het weet heel weinig.

De fout ligt hier bij hoe jij chatGPT gebruikt. Het is een taalmodel, geen kennis archief. Zoals @ThemNuts aangeeft helpt het als je specifiek aangeeft wat je verwacht. Zorg dat er extra gewicht wordt gegeven aan die specifieke app waar je informatie voor zoekt, misschien heb je geluk. Je kan ook de output van een --help meegeven voor context, daar kan chatGPT veel meer mee dan een naam van een programma ;)
ondanks dat je er de nadruk op legt het nog steeds fout doet en zelfs als je het zich laat verbeteren kan het zo maar zijn dat de volgende vraag in dezelfde sessie gewoon weer dezelfde ffoute syntax weer wordt opgegraven.
Ja, maar AI dus hip en the next thing enzo.
Als ik straks op 1001 manieren commandos kan geven om te doen zonder dat ik precies moet zeggen wat er wordt verwacht ben ik heel blij.
largelanguagemodeltechnologieën
Mooi nieuw galgje woord :)

Ben hier wel blij mee als het betekent dat wat meer natuurlijke conversaties kunnen hebben met de assistant. Dat voorgeprogrammeerd praten tegen een kastje begint me tegen te staan.
large language model technologieën is toch niet aaneengeschreven?
In het Nederlands schrijf je altijd aaneengesloten, of desnoods met koppelstreepjes. Maar woorden met spaties noemen we de Engelse Ziekte (https://nl.wikipedia.org/wiki/Engelse_ziekte_(taal))

Dit gaat helaas veelvuldig mis, zie ook spatiegebruik.nl voor beroemde voorbeelden.
you tell me... Op zich plakken we in het Nederlands net als in het Duits wel veel aan elkaar. Maar überhaupt de combinatie Engels-Nederlands vind ik al vrij lelijk.

Kan "Taalmodeltechnologieën"niet als alternatief? of "Groot-taalmodeltechnologiën"?
Het kan zeker, maar kijkende naar woorden als humanresourceafdeling, bigbangtheorie en intensivecarearts, blijkt dat dergelijke combinaties ook onderdeel kunnen worden van de Nederlandse taal.
Human Resources - mag je dat tegenwoordig nog zeggen zonder dat iemand zich gekwetst voelt of rare associaties krijgt?

[Reactie gewijzigd door IrBaboon79 op 22 juli 2024 21:20]

Maar de ellende met blijven koppelen van woorden zonder leestekens, is natuurlijk dat de leesbaarheid achteruit gaat. We lezen in brokken en niet letter voor letter en we zoeken daarbij naar een manier om de tekst op te delen - dus spaties en koppeltekens. Het voorbeeld woord hierboven leest toch echt wel beter met spaties vind ik.
Overbodige spaties kunnen de betekenis van een zin veranderen: "Doe je best en win een finale plaats!"

Een begraafplaats is voor veel mensen de finale plaats. Een plekje in de finale is een "finaleplaats".

Zie voor meer voorbeelden de site Signalering Onjuist Spatiegebruik.
“ largelanguagemodeltechnologieën ”

Ik denk dat ik mn woord gevonden heb de eerstvolgende keer dat ik galgje speel met iemand.
Waarbij je je wel kan afvragen of dit de juiste manier is om een Engelstalig woord te spellen. Ik zou eerder Large Language Model-technologie schrijven (waarbij je eventueel kunt discussiëren over het streepje). :)

[Reactie gewijzigd door Óglaigh op 22 juli 2024 21:20]

De enige juiste manier om dit woord te spellen is zoals het in het artikel staat: aaneengeschreven.
Zie ook https://onzetaal.nl/taall...derlandse-samenstellingen

Je mag altijd een streepje plaatsen tussen de woorden, maar dat moet dan wel voor verduidelijking zorgen of het moet verwarring voorkomen: astmaaanval is lastiger te lezen dan astma-aanval.

[Reactie gewijzigd door Tuktop op 22 juli 2024 21:20]

Hoezo is dit niet in het begin al gedaan? Chatassistenten zoals Bard en Copilot zijn al 10x slimmer dan Assistant, Siri of Echo. Het voelt ook nogal alsof de ontwikkeling van deze spraakassistenten gewoon stilstaat, dat terwijl het integreren van AI gewoon mogelijk moet zijn.

[Reactie gewijzigd door ChopperGunnerNL op 22 juli 2024 21:20]

Omdat dit als een nieuw product gelanceerd wordt. Dan kopen mensen het opnieuw.
Omdat dingen zoals chat-gpt nog niet bestonden toen google assistant gemaakt werd :/ ?
Ik bedoelde meer vanaf het begin dat AI Chatbots als Google Bard gelanceerd werden. Waarom hebben ze niet gelijk die integratie gedaan met Assistant? Nu lopen chatbots mijlen ver voorop spraakassistenten, dat terwijl er aan alle kanten software wordt geïntegreerd met AI functies.
Waarschijnlijk omdat de spraakassistenten op zich al heel omvangrijke en ingewikkelde programma's zijn, die op hun eigen manier heel veel data en mogelijke acties aan elkaar gekoppeld hebben. Een AI-chatbot is ongeveer hetzelfde, maar dan compleet anders. Waarschijnlijk zal het eerder een totale vervanging van spraakassistent voor AI-chatbot moeten worden, dan een integratie van de twee.
En ondanks de hype zijn de AI-chatbots nog steeds niet verder dan een pre-beta fase. Nog lang niet 'volwassen' genoeg voor een serieuze toepassing als een spraakassistent. Maar er zullen wel wat elementen toegevoegd worden en wat 'links' komen, waarbij het stokje van spraakassistent naar AI-chatbot wordt doorgegeven wanneer het 'gesprek een kan op gaat waarin een generatieve AI meer to zijn recht komt.
En toch als ik met Google Bard ‘praat’ dan komen er toch betere en uitgebreidere antwoorden uit. Ook begrijpt Bard de meeste zaken best goed waar Assistant echt gebouwd is op specifieke commandosets, wijk je ervan af dan begrijpt Assistant het ineens niet.

Wat dat betreft voelt Bard in de beta fase al een stuk volwassener dan Assistant in al die jaren.
Met pre-beta bedoel ik niet dat de dienst nog niet betrouwbaar genoeg is. Ik bedoel dat het achter de schermen waarschijnlijk nog aardig houtje-touwtje is en dat met elke nieuwe iteratie het model zelf en de software aardig op de schop gaat. Dat werkt niet lekker wanneer de assistent aan allerlei andere diensten gekoppeld moet worden.
Daarnaast moet de AI zich ook gewoon een bepaalde tijd bewijzen voordat je het toestaat om aankopen te doen, afspraken in te plannen of berichten te beantwoorden. Wanneer het als reactie op een vraag allerlei onzin gaat verzinnen omdat de vraag verkeerd geïnterpreteerd wordt is lachwekkend, maar makkelijk te herkennen en op te lossen door je vraag te herformuleren. Wanneer een dergelijke situatie resulteert in onzin aankopen, onzin afspraken waarvoor je halve adresboek uitgenodigd wordt en onzin reacties op binnenkomende berichten is dat toch al snel minder lachwekkend.
Hehe, ik snap nog steeds niet hoe deze AI stappen gezet zijn terwijl mijn google assistent vaak dommer lijkt dan toen ik hem op release kocht. Als ik zie wat ik in chat gpt allemaal kan en hoe goed de interpretatie is dan wordt het hoog tijd dat de voice assistents wat stappen gaan zetten.
Als ik vraag om de woonkamerlampen uit te doen, hoop ik dat Assistant eindelijk beter luistert en NIET per ongeluk de TV uitzet. Een TV is namelijk geen lamp, dus het zou fijn zijn als dat onderscheid begrepen wordt.

Wel een leuk topic! Ik vind LLM onwijs leuk en een goede stap naar een nieuwere wereld.
Geeft jou tv geen licht? :D
Ik gebruik Assistant nu al lange tijd, maar dat hij me tv uitzet als ik zeg doe het licht uit is me echt nog geen een keer overkomen

Wat ik wel regelmatig heb is dat hij tijdens TV kijken opeens begint te praten, waarschijnlijk omdat de tv iets heeft gezegd dat op OK Google lijkt

Lijkt me iig wel vet als een AI ingebakken wordt in de Assistant, vroeg me eigenlijk al af waarom dat er nog niet in zit, lijkt me echt een perfecte plek voor AI
Ik zie ook vele voordelen en ben het inderdaad eens met comments dat Assistent niet veel slimmer of beter is geworden de afgelopen tijd (jaren). Wat ik nog toffer zou vinden is als ook de context blijft.
Als ik nu zeg: Hey Google, zet lamp bank aan. En dan denk, oh ik wil ook die bij de TV aan. Dan zou ik willen zeggen: "Oh ja, en ook die bij de TV". Nu kan Assistent helemaal niets met die laatste opmerking, terwijl de nieuwe AI taalmodellen precies 'snappen' wat ik daarmee bedoel.
Lijkt me een bruggetje die zeer welkom is!
Ik hoop alleen dat ze AI snel gaan gebruiken voor Google Assistant. Heb ook het gevoel dat dit met de jaren slechter wordt of ik meer verwend raak. Ik krijg steeds vaker te horen: "Ik heb het niet begrepen" en ook op de simpelste vragen. Het helpt ook niet als ik er bij zeg dat ze het even op internet moet opzoeken of zo.

Maar ook ander simpele vragen begrijpt die niet zoals: Hoelang duurt het tot ik in mijn agenda de afspraak vakantie heb. Lijkt me niet een heel moeilijke vraag, maar dat ding heeft geen idee. Dat die mijn lampen aan en uit kan zetten geloof ik inmiddels wel, maar het wordt toch tijd dat ze wel wat meer kunnen als de basis commando's. AI zou daarbij echt kunnen helpen!
I dont know. But i have found these results on the web.

word dat dan, i dont know. So ill just answer some ai lines. Would you like me to do that?
MedPalm lijkt me erg handig voor mijn huisarts, 86% score op USMLE vragen,
https://sites.research.google/med-palm/

Op dit item kan niet meer gereageerd worden.