Home / Inteligência artificial / O Google Lens agora pode reconhecer um bilhão de itens

O Google Lens agora pode reconhecer um bilhão de itens

O Google Lens, a ferramenta de análise com tecnologia AI do Google, agora pode reconhecer mais de 1 bilhão de produtos do portal de comparação de preços e varejo do Google, o Google Shopping. Isso é quatro vezes o número de objetos cobertos por Lens em outubro de 2017, quando fez sua estréia.

Aparna Chennapragada, vice-presidente do Google Lens e realidade aumentada no Google, revelou o boato em um post retrospectivo sobre os marcos do Google Lens.

“Passei a última década liderando equipes que criam produtos que usam AI para ajudar pessoas em suas vidas diárias, por meio do Assistente de pesquisa, e agora do Google Lens”, escreveu ela. “A cada momento, confiamos em nossa visão para entender nosso entorno, nos lembrar de todo tipo de informação e explorar o mundo ao nosso redor… vejo a câmera abrindo todo um novo conjunto de oportunidades para a descoberta e assistência de informações.”

Produtos, neste contexto, refere-se a rótulos de produtos. O Google Lens utiliza um mecanismo de reconhecimento óptico de caracteres – combinado com sistemas de IA que reconhecem diferentes caracteres, idiomas e fontes, além de modelos de idioma e correção ortográfica emprestados da Pesquisa do Google – para corresponder códigos de barras, códigos QR, ISBN e outros identificadores alfanuméricos listagens de produtos no enorme catálogo do Shopping.

“Agora, o estilo é ainda mais difícil de se colocar em palavras”, explica Chennapragada. “É por isso que achamos que a câmera – uma entrada visual – pode ser poderosa aqui … A lente pode mostrar a você … informações úteis como análises de produtos”.

Isso nem todos os algoritmos de visão computacional do Google Lens podem reconhecer, é claro.

A lista crescente inclui móveis, roupas, livros, filmes, álbuns de música, videogames, pontos turísticos, pontos de interesse, edifícios notáveis, nomes e senhas da rede Wi-Fi, flores, animais de estimação, videogames, bebidas, celebridades e muito mais. Lens lê e solicita que você tome medidas com palavras em menus e sinalização, e, quando apontado para roupas ou decoração da casa, recomenda itens que são estilisticamente semelhantes. Além disso, talvez o mais útil de todos, ele pode extrair automaticamente números de telefone, datas e endereços de cartões de visita e adicioná-los à sua lista de contatos.

O Google Lens evoluiu dramaticamente no ano passado. De acordo com Chennapragada, Lens, que é treinado em imagens rotuladas alimentados através quadro de aprendizagem de máquina TensorFlow open source do Google, está começando a reconhecer objetos mais confiável graças a conjuntos de dados com fotos “que parecem que foram tiradas com câmeras de smartphones.”

Está melhorando de maneiras mais palpáveis ​​também.

Em maio, na sua I / O keynote, o Google tomou os envoltórios fora de um modo de análise em tempo real para Lens que sobrepõe pontos de reconhecimento sobre os elementos acionáveis na alimentação de câmera ao vivo – um recurso que lançou o primeiro na Pixel 3 e 3 XL. Lens veio recentemente para pesquisas de imagens do Google na web. Mais recentemente, o Google trouxe o Lens para o iOS por meio do aplicativo do Google e lançou uma experiência reformulada no Android e no iOS.

Quanto ao que o futuro reserva para a Lens, a Chennapragada está apostando grandes melhorias na IA.

“Olhando para o futuro, acredito que estamos entrando em uma nova fase da computação: uma era da câmera, se você quiser”, escreveu ela. “Está tudo se juntando de uma só vez – um ritmo de progresso impressionante em IA e aprendizado de máquina; hardware mais barato e mais potente graças à escala dos telemóveis; e bilhões de pessoas usando suas câmeras para marcar os momentos da vida, grandes e pequenos. ”

Check Also

Técnicas Avançadas de Resolução de Conflitos Impulsionadas pelo Avanço da Tecnologia

Introdução A resolução de conflitos é uma parte essencial da experiência humana, seja em nível …

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *