O Google está desenvolvendo uma nova funcionalidade experimental que promete transformar o uso do Google Lens.
Segundo informações obtidas pelo site 9to5Google, a gigante de Mountain View está integrando ao Lens um modo de inteligência artificial chamado Live for AI Mode, que lembra bastante o recurso Gemini Live, apresentado recentemente pela empresa.
Com esse novo modo, o Google Lens poderá acessar a câmera do celular em tempo real, permitindo que o usuário aponte o aparelho para qualquer objeto — como uma planta, um livro ou um produto — e receba respostas imediatas da IA, sem precisar tirar uma foto ou fazer upload de imagens.
A ideia é facilitar interações mais naturais e rápidas, aproveitando a câmera como uma ponte direta entre o mundo físico e a inteligência artificial.
Além da análise ao vivo, o recurso também deve permitir que o usuário compartilhe a própria tela do celular com a IA, o que pode ser útil para tirar dúvidas sobre conteúdos exibidos no dispositivo, como páginas da web, documentos ou imagens.
No entanto, vale destacar que, por enquanto, a função ainda é limitada: só é possível fazer uma pergunta por vez, e o Google alerta que o recurso é experimental e sujeito a erros.
Por ora, essa novidade foi encontrada em trechos de código na versão beta do app do Google (versão 16.17), o que indica que ainda está em fase de testes e pode passar por mudanças antes (ou se) for lançada oficialmente.
Mesmo assim, o movimento mostra que o Google segue avançando no uso da IA para tornar suas ferramentas mais inteligentes, intuitivas e integradas ao dia a dia das pessoas.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!