Google laat Engelstalige gebruikers van Google Lens bijkomende zoekopdrachten via tekst uitvoeren, en dit om betere zoekresultaten te ontvangen. De functie, genaamd multisearch, werkt momenteel enkel voor Engelstalige gebruikers in de Verenigde Staten en is nog in bèta.
Engelstalige gebruikers van de Google-app voor Android en iOS kunnen nadat ze een foto hebben genomen via Google Lens, een bijkomende tekstuele zoekopdracht invoeren om een specifieker zoekresultaat te verkrijgen. Google geeft zelf het voorbeeld van een kledingstuk dat gefotografeerd wordt waarbij nadien ook een andere kleur kan opgegeven worden. De nieuwe resultaten tonen dan soortgelijke kledingstukken als in de oorspronkelijke foto, maar dan in de kleur die nadien is ingetypt.
Deze uitgebreide en contextuele zoekopdracht is volgens Google mogelijk gemaakt door het nieuwe zoekalgoritme Multitask Unified Model, ofwel Mum. Dat algoritme is volgens de Amerikaanse zoekgigant vele malen krachtiger dan BERT, het algoritme dat tot voor kort werd gebruikt bij zoekopdrachten. "Mum begrijpt informatie uit beeld en tekst, en binnenkort ook uit video en audio", klonk het bij de aankondiging van het algoritme in 2021. "Het algoritme is ook getraind om te werken met 75 talen. Een zoekopdracht uit één taal kan automatisch doorgezet worden naar een andere taal die meer resultaten oplevert."