Door Luke van Drie en Arnoud Wokke

Google showt slimme bril en zoeken met video - Tweakers Update

14-05-2024 • 23:00

19

Googles jaarlijkse ontwikkelaarsconferentie I/O begint altijd met een keynote met daarin updates voor veel van zijn diensten. Deze keer ging het eigenlijk maar over één ding: hoe Google AI in al zijn producten en diensten probeert te stoppen. Of het nu gaat om de zoekmachine, YouTube, Android of Google Foto's, in alle diensten komt AI te zitten op allerlei manieren. En o ja, Google liet ook na jaren weer eens een slimme bril zien. Deze verre afstammeling van Google Glass kan onder meer begrijpen wat je ziet en daar vragen over beantwoorden.

00:00 - Google toont slimme bril en zoeken met video
00:20 - 121 keer AI
00:42 - Project Astra bril
01:11 - Gesprekken voeren met AI
01:36 - Gemini Live
01:57 - Vragen over foto's of video's
02:25 - Google search zoekmachine
03:07 - Gems chatbots en Gemini 1.5 Pro
03:58 - Voorlopige conclusie

Reacties (19)

19
19
12
1
0
7
Wijzig sortering
Ik word er niet warm of koud van. Pas geleden kreeg ik Gemini aangeboden op m'n telefoon. Ik heb er 10 minuten mee gespeeld, was totaal niet onder de indruk en daarna niks meer mee gedaan.

Ik had gehoopt op nieuwe devices bijv een nieuwe Chromecast. Nu ga ik maar kijken of ik die Onn 4k Pro via grijze import kan bemachtigen. Ik heb er al een paar op eBay gezien.
Dat is idd wel een risico nu. Net als met cardboard VR. Veel mensen die zo'n goedkoop lensdoosje op hun telefoon zetten en misselijk werden en daarna nooit meer VR hebben aangeraakt.

AI is handig als hulp bij coden maar verder heb ik nog maar weinig gezien waar ik het nut van zie. Praten met mn telefoon is toch iets wat leuk is voor Star Trek maar ga ik niet zo snel doen.
Cardboard VR heeft echt geen schade gedaan aan VR zelf. Het is gewoon het medium wat ervoor zorgt dat mensen niet genoeg goede toepassingen ervaren voor VR. Ik heb zelf ook ooit een Quest 2 gekocht met de wildste plannen. Maar ik gebruik hem zo weinig dat ik nu echt goed moet zoeken in huis om te vinden waar het apparaat stof loopt te happen. Kwalitatief vond ik het een hele goede instapper (ik heb geen bril en ook geen last van motion sickness).

En nu ook met die LLM's, de hype gaat er snel vanaf en uiteindelijk zit de toepassing met name in fast consumables: social media en luie mensen. De informatie die het uitspuugt is niet te vertrouwen. Ook als ik dingen als Perplexity of You gebruik vind ik het voor professioneel gebruik een grote afrader, want ook al heeft het bronvermelding, het kan zelf de bron totaal niet op waarde inschatten. Dus ik krijg een selectie van info te zien waarvan ik niet kan oordelen of er kwalitatieve bronnen gebruikt zijn.

Mijn inziens is het internet steeds meer aan het rotten en A.I. is een katalysator die dat nog even extra goed laat zien. Ik merk bij mijzelf ook dat ik echt helemaal geen enthousiasme meer heb voor het internet, gaming en sociale media. Mijn enthousiasme is compleet verschoven richting energiemanagement, koken en onderhoudsarme tuinen inrichten. Heeft uiteraard ook met de leeftijd te maken alleen zie ik de volgende ontwikkelingen:

- AAA gaming wordt steeds weer verneukt door dubieuze praktijken van uitgevers. Indie games hebben steeds vaker last van abandonware, er is een trend om steeds iets streamer-waardigs te maken. Waar ik vroeger een fanatiek gamer was zie ik dat ik de laatste 2 jaar misschien 1 keer in de week nog game, en met name om met vrienden te meeten.
- Social media is compleet verneukt door alle bots, waan van de dag gedoe en het slavenalgoritme.
- Het wordt steeds lastiger om goede informatie te vinden op het internet door SEO hacking.
- Diensten proberen steeds vaker ads op te dringen. Enshittification is real.
- GenAI wordt compleet gehyped maar ondertussen zie je weinig zinvolle toepassinge terugn. Ik ben ondertussen A.I. moe en ik zie wel wanneer het in mijn software komt. A.I. voelt als een fruitmachine waar je steeds een muntje in moet gooien en hopen dat hij iets zinnigs terug geeft.
AI gaat nog heel lang bijzaak zijn voor de meeste mensen. Als SQL tikker heb ik er weinig aan bijv omdat ik de AI geen toegang kan geven tot het datamodel. Zelfs met Microsoft's Copilot lukt dat niet en kom je in Azure Data Studio niet verder dan een simpele chat sessie. De AI mist alle context en dat maakt het vrijwel nutteloos voor mij. En zonder die context kan AI een stukje code niet eens inhoudelijk beoordelen.

[Reactie gewijzigd door watabstract op 22 juli 2024 13:31]

Codeium heeft repo context, misschien handig:
https://codeium.com/context
Deze AI's geven zichzelf wel een voordeel ( ook die andere ) door steeds wat woorden voor het antwoorden te spreken. "uhm" "nou ik zal even kijken" idee. Iets meer tijd.
Dit viel mij ook op; het is een hele natuurlijke manier om de verwerkingstijd te verwerken. Veel beter dan kijken naar een loading animatie
Doet me een beetje denken aan games waar je in een lift stapt en stiekem eigenlijk een laadscherm is. Doet niet veel, maar het voelt wel natuurlijker aan
Ah ja, zoals in Portal.

Dat is inderdaad wel slim gedaan.
En, uh, dat is, even denken, exact wat mensen volgens mij ook doen?
Met weer een enorme fout in het antwoord van Gemini. Iets met de film van de camera blootstellen aan licht https://www.theverge.com/...kes-factual-error-in-demo
Dit is misschien slecht advies maar geen fout. Er wordt niet gevraagd naar een oplossing waarbij beeld op de film niet verloren gaat. Fouten/hallucinaties zijn een probleem, ongewenste antwoorden door vragen/ prompts die niet expliciet genoeg, incorrect of vooringenomen een ander soort problemen. Mensen interpreteren een vraag sneller aan met context of niet uitgesproken aannames bij de vraag.
Dit komt tussen mensen ook regelmatig voor. Heb het zelf vaak meegemaakt in software ontwikkeling dat bv een klant niet vraagt of (goed) uitlegt wat het probleem is dat opgelost moet worden en ontwerp oplossing heel anders is dan wat in gedachte was en gewenst. Zou deels op te lossen zijn door doorvragen (van de AI) naar betere omschrijving van het probleem.
Doet me denken aan het introductiefilmpje van de HumaneAI pin. "When is the next solar eclipse?"

Compleet verkeerd antwoord, en iets wat een simpele zoekopdracht je wel correct zal vertellen. Al die antwoorden van AIs zouden met een enorme disclaimer getoond moeten worden.
Na die staged video van Gemini vorig jaar wil ik het dit keer eerst echt zien dan geloven.
In de positie van Google vind ik dit wel de juiste manier. Dat niet er niet veel live ging zijn was wel te verwachten. Ze lopen nu eenmaal wat achter, en de scope is enorm.

Het potentieel is enorm bij hun, doordat ze bij wijze van spreken half het internet in handen hebben. Dus de direct implementatie in producten die de massa nu al gebruikt is de enige juiste manier voor hun. Ik snap dat mensen Google minder hot vinden dan OpenAI, maar Google heeft wel alle tools in handen voor volledige integratie.

De grote vraag zal beantwoord worden door Apple. Wie word de vervanger van Siri.
Allemaal aankondigingen en filmpjes, het lijkt erop dat Google meer en meer achterop loopt ten opzichte van OpenAI
Die functie dat Gemini gaat meeluisteren met telefoongesprekken klinkt handig (scammers vinden!) maar lijkt me behoorlijk problematisch. Ben benieuwd of ze dat in de EU überhaupt mogen.
Waar komt toch die behoefte vandaan om te praten met apparaten? Stel je zit op kantoor als, ik noem maar wat, een programmeur. Naast je zit niet geheel toevallig ook een programmeur, maar die zit de hele dag te kletsen tegen zijn systeem. Dan kun je je toch totaal niet concentreren? Of ligt dat aan mij persoonlijk?
Moet zeggen dat ik Gemini een maand heb laten draaien via mijn Google Assistant. Standaard voice assistant kon niet eens meer mijn standaard routes gelijk starten. Mijn verlichting in huis deed niet meer wat ik wilde. Sorry maar voor de standaard gebruiker voelde Gemini Ai niet handig. Je verwacht van een nieuwe functie dat het een stapje vooruit is. Helaas was het voor mij 2 stappen terug.

Op dit item kan niet meer gereageerd worden.