'Google brengt geavanceerd AI-model Gemini uit in januari 2024'

Google brengt zijn AI-model Gemini naar verluidt uit in januari 2024. Volgens The Information was Google aanvankelijk van plan om het model volgende week uit te brengen. De zoekgigant zou daarvan af hebben gezien vanwege problemen met query's in een andere taal dan Engels.

The Information meldt op basis van anonieme bronnen dat ceo Sundar Pichai heeft besloten de release van Gemini, die volgende week in New York, Washington en Californië gepland stond, uit te stellen naar begin volgend jaar. Publiekelijk bracht Google niets concreets naar buiten over de releasedatum en het verzetten ervan, sinds de tease van het model tijdens I/O 2023. De vertraging zou te wijten zijn aan onbetrouwbare reacties op niet-Engelse prompts.

Het AI-model moet een breed scala aan geavanceerde toepassingen kunnen verwerken en combineren. Zo moet Gemini niet alleen in staat zijn om teksten en afbeeldingen te verwerken, interpreteren en genereren, maar ook andere soorten inhoud kunnen creëren op basis van een schets of beschrijving, zoals een website. Gemini benut naar verluidt beduidend meer rekenkracht dan concurrent GPT-4 van OpenAI. Naar verwachting brengt Gemini ook verbeteringen naar bestaande AI-tools van het bedrijf, waaronder Google Bard, Google Assistant en Google Zoeken.

Door Sabine Schults

Redacteur

04-12-2023 • 14:41

22

Submitter: wildhagen

Reacties (22)

22
22
17
0
0
3
Wijzig sortering

Sorteer op:

Weergave:

Google zou beter hun energie eens stoppen in hun Google assistant... de AI modellen vliegen ons om de oren en zijn stuk voor stuk prachtige dingen in het beantwoorden van vragen of omzetten in correcte instructies. Maar vraag je iets aan hun assistent krijg je de helft van de keren: Sorry, ik begrijp u niet (en het ligt niet aan de taal, want je ziet letterlijk uw gesproken tekst staan...)
edit: laatste zin niet goed gelezen, er zou verbetering moeten komen in de assistant dus :p Nu, ze is meer dan welkom :-)

[Reactie gewijzigd door telenut op 23 juli 2024 12:34]

precies dat; volgens mij zijn die spraak dingen toch HET aangewezen platform om AI qua draagvlak en meerwaarde te gebruiken. Ook amazon verzaakt dit. Iemand een logische verklaring voor?
Het komt nog... Tenminste dat is mijn gevoel. Fundamenteel zijn dit soort diensten o.b.v. een ander fundament opgezet. Het compleet vervangen en testen van zoiets kost flink wat tijd. Misschien is het zelfs zo erg dat ze beter opnieuw kunnen beginnen.
Het is nog een laag van complexiteit en onzekerheid, meer niet. Beter (eerst) zonder doen dus, daarnaast is integratie op zich niet nuttig lijkt me, er zijn veel manieren om voice2text daaraan te koppelen.
Ik verwacht er niet zo veel van. Ze hadden de assistant ook al aan Brard kunnen koppelen.

Wat dat betreft is Alexa een stuk verder met begrijpen wat ik wil en met de AI die gewoon alle sensordata van de verschillende devices automatisch oppikt. Voorbeeld is dat beiden gekoppeld zijn aan mijn hue bewegingssensoren en aan mijn temperatuur meters buiten en binnen van ander merk. Alexa kan bij de vraag wat de temperatuur binnen is precies per kamer aangeven wat de temperatuur is (soms gemiddeld als er meerdere hangen), google geeft alleen de instelling van mijn thermostaat door.
Dat gaat een geavanceerde AI niet zomaar oplossen.

Alexa lijkt ook al jaren een AI te gebruiken om data op te zoeken die niet van sensoren komt. Als ik vraag wat de F1 tijden zijn in een bepaald weekend geeft ze de tijden in mijn lokale tijd. Google assistant weet niet eens te vinden wat de tijden zijn.
Wat betreft die temperatuur: De tuya sensoren die ik heb worden wel weergegeven in de Google Assistent. Ik kan nu vragen hoe warm het is in de sauna bijvoorbeeld.
Maar als ik iets zeg zoals: het is koud in de woonkamer. Dan krijg je terug; ik begrijp het niet, of ik kan u daarbij niet helpen.
Helemaal mee eens, als ik in de auto Android Auto gebruik en vraag: spotify speel Fleddy Melculy, krijg ik vaak terug:
Sorry Youtube music is niet geïnstalleerd
Ik zal wikipedia vragen om Fredie Mercury op te zoeken.
Dan moet je Spotify misschien nog koppelen aan Google Assistant?

Open op je smartphone de Google App, ga naar instellingen, dan naar Google Assistent en dan Muziek.
Daar kun je Spotify kiezen als (standaard) muziekservice voor Google Assistent.
Google heeft aangekondigd dat Bard gaat toegevoegd worden aan Google Assistant in de toekomst. Ik kan me wel voorstellen dat dat geen simpel proces is. Voornamelijk omdat Google Assistant op zoveel toestellen beschikbaar is dat ze simpelweg de processing power niet hebben om Bard daar meteen in te gooien + Bard moet dan natuurlijk ook kunnen werken op de manier die Assistant nu doet zodat bestaande flows niet allemaal breken.

Het komt er maw aan maar ik vermoed dat je een beetje onderschat hoeveel werk en hoe complex dat allemaal is. :)
Dit is daar natuurlijk onderdeel van...
Gemini benut naar verluidt beduidend meer rekenkracht dan concurrent GPT-4 van OpenAI.
Ik denk niet dat je daar veel aan kan meten. Het gaat om de resultaten, hoeveel rekenkracht er voor nodig is zegt niet zo veel. Meer rekenkracht gebruiken en dezelfde resultaten opleveren is in mijn ogen veel slechter, terwijl het er nu als een positieve noot staat.
Elke halve zool snapt natuurlijk dat een lichter model met dezelfde output wenselijk is boven een zwaardere; dat zal Google ook echt wel hebben bedacht. Ik vermoed dat zij het concept efficiëntie wel kennen, en dat zij hebben geprobeerd om een zo slim mogelijk model te maken (dat meer moet kunnen dan GPT4), met zo klein mogelijk aantal parameters, dat kan worden getraind met zo weinig mogelijk hardware. De uitkomst daarvan is blijkbaar dat Gemini alsnog "meer rekenkracht" gebruikt dan GPT4. Dat wil niet zeggen dat een groter model de bedoeling was of iets dergelijks; het is blijkbaar niet gelukt om Gemini kleiner te maken dan GPT4. Dat is het meest verwachte antwoord, maar is alsnog informatie voor ons als lezers. En geen waardeoordeel.

[Reactie gewijzigd door geert1 op 23 juli 2024 12:34]

Ik zie Google er best voor aan om minder efficient te gaan werken en te gaan voor het grootste, uitgebreidste model in zo'n kort mogelijke tijd. Dan maar meer resources gebruiken, als je maar via marketing kan schreeuwen dat je het grootste en meest uitgebreide model hebt. Er is een AI race bezig en een commercieel bedrijf zal het niet laten om minder efficient te werken om maar zo snel mogelijk bovenin te staan.

Ik hoor op gebied van AI weinig marketing over de efficientie van de modellen en daarmee hoe groen een AI eigenlijk wel of niet is. En dat zal vast een reden hebben.

Zoals het nu in het artikel staat, tussen allerlei 'positieve punten' (meer features, verbeteren bestaande bots) wordt het gebruik van meer rekenkracht als positief gezien. Terwijl het eigenlijk een totaal niets zeggende zin is.
De energiekosten zitten in de prijs verwerkt en daar wordt wel degelijk op geconcurreerd. Electriciteit is te goedkoop (de hypotheek op de toekomst zit er niet in verwerkt) en daarmee zijn al die chatbots/LLMs niet `groen'. Tenzij je specifiek de zeldzame metalen bedoelt is de impact niet echt anders dan vrijwel alle andere dingen die we doen in de maatschappij en heeft die problematiek vrij weinig direct met AI te maken.

Als het meer rekenkracht gebruikt zou ik verwachten dat ze vormen van postprocessing gebruiken of fusie over meerdere runs, zodat de resultaten wat robuuster zijn. Dat kan nu via prompts, maar de doelstelling van AI is dat het jouw intentie kan volgen en niet dat jij je moet plooien om het gewenste resultaat te krijgen. Ik verwacht dat het wel heel zinnig kan zijn om de randomness en de sensitiviteit naar specifieke formulering van de prompt omlaag te halen.
Heb even gegoogled, er komt voornamelijk naar voren dat Gemini efficiënter is, maar een duidelijke onderbouwing ontbreekt.

https://www.google.com/se...AGCA&sclient=gws-wiz-serp
Ik zie dat gewoon als info niet echt als goed/slecht.
Gemini benut naar verluidt beduidend meer rekenkracht dan concurrent GPT-4 van OpenAI.
Benut? Of verbruikt? Of verspild? Het is duidelijk dat de weg van steeds grotere modellen en steeds meer rekenkracht doodloopt, gezien de marginale verbetering van GPT4 over GPT3.5.
Ik ben eigenlijk nog steeds benieuwd wat benut in deze context is. Voor mij is benutten zoveel mogelijk van de beschikbare rekenkracht gebruiken. Is schaalbaarheid hier dan het voordeel?
Het is heel moeilijk om dat te kwantificeren. Je moet eigenlijk kijken naar de hoeveelheid informatie die je uit zo'n systeem krijgt, of hoe 'sterk' het bewijs van intelligentie is. Enkel kijken naar hoeveel rekenkracht gebruikt wordt zegt je eigenlijk helemaal niks.
Ik heb het gevoel dat Google veel meer moeite heeft om op GPT-4 niveau te komen dan initieel gehoopt. Heb ook nooit begrepen dat ze Bard hebben uitgebracht in zijn huidige staat. De kwaliteit is bedroevend. De hallucinaties vliegen je om de oren en het model ligt hooguit op GPT3 niveau. Als Gemini moeite heeft met multi-lingual input, is dat geen goed teken. De enorme taal-kennis van GPT4 is als ware ontstaan doordat het model is gevoed met een bepaalde hoeveelheid data wat zorgde voor 'emerging behaviors'. Hoe groter het model, hoe beter de multi-lingual in/output.

GPT3 had bijvoorbeeld voor de NL taal nog iets van 75%, wat met 3.5 opliep tot in de 80 en met GPT4 zit het volgens mij zelfs al op 97%. Dat percentage is ook gewoon nodig om uberhaupt iets bruikbaars te produceren in een professionele omgeving.

Betekent dit dat deze 'emerging behaviors' niet in Gemini zijn ontstaan? Want dat zou betekenen dat er iets mis is met het model en dat deze dus niet zo intelligent eruit is gekomen als gehoopt.

Voor mijn SaaS applicatie is het in ieder geval onbruikbaar als de NL taal niet op zeer hoog niveau wordt begrepen. De enige welke dit nu kan is GPT-4 (en dat gaat maar net goed en vereist alsnog hele goede prompting). Antrophic (Claude) begint in de buurt te komen, maar ook deze slaat nog vaak de plank mis binnen de Nederlandse taal en kan bepaalde principes niet toepassen binnen de context van zijn output.
Wellicht was het probleem dat ze geen mensen wilden uitbuiten bij het vergaren van menselijke feedback. Ik vind dat eerlijk gezegd nogal een ding met de tools van OpenAI.
Bard vs chatgpt?
Ben benieuwd naar de uitslag. Ik gebruik meer Bard, maar beiden overtuigen me niet volledig. Bevat veel te veel fouten.

[Reactie gewijzigd door KKose op 23 juli 2024 12:34]

Op dit item kan niet meer gereageerd worden.