Código revela Modo de Raciocínio e controles de agente no Gemini Live

Renê Fraga
4 min de leitura

Principais destaques:

  • Código do app do Google indica a chegada de um Modo de Raciocínio com respostas mais longas e elaboradas no Gemini Live.
  • Novos recursos do Labs apontam para memória multimodal, leitura de tela e controles de agente capazes de executar ações no celular.
  • Indícios sugerem a transição do Gemini Live para modelos mais avançados da família Gemini, possivelmente o Gemini 3.

O Google está preparando uma evolução importante para seu assistente de voz com inteligência artificial.

Uma análise da versão beta mais recente do aplicativo do Google revelou referências a novos recursos em desenvolvimento para o Gemini Live, incluindo um aguardado Modo de Raciocínio, que promete respostas menos imediatas e muito mais detalhadas.

As informações surgiram a partir da desmontagem do APK da versão 17.2.51.sa.arm64 do app, que expôs quatro novas capacidades experimentais do Labs. Atualmente, o Gemini Live funciona com o Gemini 2.5 Flash, mas as novas strings de código indicam que a interface pode, em breve, passar a utilizar modelos mais recentes da linha Gemini.

Modo de Raciocínio muda a forma de responder

O recurso mais chamativo é o chamado Modo de Raciocínio ao Vivo.

Segundo descrições encontradas por sites especializados como Android Authority e 9to5Google, essa opção permite que o Gemini “leve mais tempo para pensar” antes de responder, priorizando explicações completas em vez de respostas rápidas.

Na prática, isso representa uma mudança clara na experiência de uso. O assistente deixa de ser apenas reativo e passa a atuar de forma mais analítica, algo especialmente útil para perguntas complexas, explicações técnicas ou tomadas de decisão.

Recursos experimentais ampliam o contexto

Outro conjunto de novidades aparece sob o nome Recursos Experimentais ao Vivo. Ele reúne melhorias como memória multimodal, melhor filtragem de ruídos na entrada de voz, respostas baseadas no conteúdo exibido na tela e resultados personalizados conforme os apps do Google conectados à conta do usuário.

A capacidade de compreender o que está na tela lembra diretamente o Project Astra, iniciativa apresentada pelo Google como sua visão de um assistente de IA universal, capaz de entender contexto visual e agir de forma mais natural no dia a dia.

De assistente a agente digital

As duas últimas opções do Labs reforçam essa transformação. O Controle de Interface permitiria que o agente toque na tela, role páginas e preencha campos automaticamente para concluir tarefas, em vez de apenas explicar o passo a passo. Já a Pesquisa Profunda serviria para delegar investigações mais complexas à IA.

Essas funções aproximam o Gemini Live do conceito de agente digital completo, indo além do navegador e atuando diretamente no sistema do smartphone. Apesar disso, o Google parece planejar um lançamento gradual, com cada recurso podendo ser ativado individualmente.

Disponibilidade ainda indefinida

Por enquanto, todos esses controles permanecem ocultos para o público, ativados apenas por sinalizadores do lado do servidor. O Google ainda não confirmou oficialmente nenhuma dessas novidades e, como ocorre em análises de APK, não há garantia de lançamento.

Mesmo assim, a quantidade de descrições detalhadas e elementos visuais sugere que os testes internos estão em estágio avançado.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Seguir:
Renê Fraga é fundador do Google Discovery (GD) e editor-chefe do Eurisko. Profissional de marketing digital, com pós-graduação pela ESPM, acompanha o Google desde os anos 2000 e escreve há mais de duas décadas sobre tecnologia, produtos digitais e o ecossistema da empresa. Criador do Google Discovery em 2006, tornou-se referência na cobertura do Google no Brasil e foi colunista do TechTudo (Globo.com), compartilhando análises e conhecimento com um grande público.
Nenhum comentário