Partilhareste artigo
A Google apresentou esta quarta-feira melhorias no motor de busca mais famoso do mundo, procurando, a partir da inteligência artificial, transformar a forma como a informação é usada e o conhecimento adquirido. As inovações ainda não estão disponivéis, mas serão implementadas dentro em breve.
A partir do evento Google Search On’21, Prabhakar Raghavan, o senior vice presidente da Google, anunciou a grande novidade: melhorar a ferramenta de pesquisa visual, o Google Lens. A melhoria é possível graças ao MUM (Multitask Unified Model ou modelo unificado multitarefa), tecnologia lançada em maio e que visa melhorar significativamente as ferramentas de pesquisa no Google. Neste caso, no Google Lens, permitindo, por exemplo, fazer perguntas sobre o que se vê.
“O utilizador poderá tocar na imagem de uma camisa e pedir ao Google para encontrar o mesmo padrão – mas agora noutra peça de roupa, como meias. Isto ajuda quando o utilizador está a pesquisar por algo que pode ser difícil de descrever com precisão através de palavras. Poderá escrever “meias vitorianas com florais brancos”, mas não encontrar o padrão exato que está a procurar. Com este novo recurso do Lens, estamos a tornar mais fácil pesquisar visualmente”, afirmou.
Isto será possível com a introdução do Google Lens na pesquisa, cujo lançamento “irá acontecer nos próximos mês, e primeiro em língua inglesa”.
Subscrever newsletter
Outra tópico que o motor de busca vai ter melhorado será a forma como dá a compreender coisas que o utilizador desconhece, mas quer aprender.
“Imaginemos que o utilizador quer decorar o seu apartamento e está interessado em aprender mais sobre a criação de pinturas acrílicas”, sugeriu Raghavan. “Caso pesquise por ‘pintura acrílica’, a Google compreende como as pessoas geralmente exploram este tópico e mostra os aspetos mais suscetíveis de serem observados em primeiro lugar. Por exemplo, podemos identificar mais de 350 tópicos relacionados com a pintura acrílica e ajudá-lo a encontrar o caminho certo a seguir”, prosseguiu.
Este recurso também será disponibilizado nos próximos meses, com o apoio do sistema MUM.
“No futuro, o MUM irá desbloquear insights mais profundos que o utilizador talvez não soubesse como pesquisar e vai ligar o utilizador a conteúdo na web que muito provavelmente, não iria encontrar de outra forma”, prometeu o responsável da Google.
Ou seja a pesquisa através do motor de busca da Google será mais refinada. Por exemplo, será possível “tornar mais fácil ampliar e reduzir uma pesquisa com novas funcionalidades para refinar e alargar as pesquisas”. Isto é, poder-se-á alargar o âmbito de um tópico pesquiso ou torná-lo mais específico ainda.
“Estamos a tornar mais fácil encontrar inspiração visual através de uma página de resultados com novo design e navegável. Se a técnica ‘puddle pouring‘ chamou a sua atenção, basta pesquisar por “pour painting ideas” para ver uma página visualmente rica, repleta de ideias da web, com artigos, imagens, vídeos e muito mais que pode percorrer facilmente. Esta nova página de resultados visuais foi desenvolvida para pesquisas onde se procura inspiração, como ‘ideias para decoração de Halloween’ ou ‘ideias para jardins verticais interiores’, e é possível experimentá-lo hoje”, adiantou.
Isto tudo com a ajuda da inteligência artificial, que dá também um contributo importante para tornar a pesquisa mais visual e em vídeo também. “Hoje, estamos a dar um passo em frente, apresentando uma nova experiência que identifica tópicos relacionados com um vídeo, com links para aprofundar e aprender mais facilmente”, revelou.
Assim, dentro de semanas será possível uma nova experiência baseada no MUM, que identifica tópicos relacionados num vídeo, mesmo se o tópico não for mencionado explicitamente.
No caso do sistema operativo IOS, será possível beneficiar do ‘Modo Lens’. Consiste num novo botão na app da Google para possível que todas as imagens de uma página sejam pesquisáveis. “Isto significa que agora vão poder pesquisar imagens de objetos passíveis de compra em websites à medida que pesquisa com o modo Lens na app Google em iOS”. Esta ferramenta só está disponível para já nos Estados Unidos.
Para quem não tem acesso ao sistema iOS, o Google Lens vai passar a estar disponível no browser Chrome, para desktop. “Em breve, vamos poder selecionar imagens, vídeos e conteúdo de texto num site com o Lens para ver rapidamente os resultados da pesquisa na mesma janela – sem sair da página em que está”, desvendou Prabhakar Raghavan, o senior vice presidente da Google.
Com estas inovações, a Google vai contribuir para tornar mais fácil a compra de artigos, a partir do motor de busca. Como? A partir desta quarta-feira já será possível encontrar no motor de busca, a partir do telemóvel, uma pesquisa de roupas diretamente nos resultados da pesquisa.
Tal é possível através do suporte do Google”s Shopping Graph, um conjunto de dados abrangente e em tempo real de produtos, inventários e comerciantes com mais de 24 mil milhões de listagens. Acresce a possibilidade de, a partir do filtro “em stock”, será possível confirmar a disponibilidade de um item nas prateleiras de uma loja. Contudo, estas novidades reçacionadas com as compras estão limitadas, para já, aos Estados Unidos.
“E estamos a ajudar as pessoas a avaliar melhor a credibilidade das informações que encontram online. Além disso, nos momentos que mais importam, estamos a encontrar novas maneiras de ajudar as pessoas a ter acesso a informações e insights”, concluiu o responsável da Google.
Nesse sentido, os painéis ‘Sobre este resultado’ serão expandidos para incluir mais informações sobre as fontes e os tópicos que são encontrados na pesquisa efetuada. Por exemplo, além de surgir uma descrição da fonte da Wikipedia, também poderá surgir o que um determinado site diz sobre o tema pesquisado, se essa informação estiver disponível.
Deixe um comentário