Principais destaques
- O Google testa uma função experimental que permite ao Gemini operar aplicativos Android automaticamente.
- A tecnologia analisa a tela e executa ações como toques, rolagens e preenchimento de dados.
- O usuário mantém controle total e pode interromper a IA a qualquer momento.
O Google está avançando no desenvolvimento de um novo recurso do Gemini que promete mudar a forma como as pessoas interagem com aplicativos no Android.
A novidade, descoberta na versão beta mais recente do app Google, permitirá que o assistente de inteligência artificial execute tarefas completas em nome do usuário, sem a necessidade de tocar na tela.
Chamado internamente de automação de tela e identificado pelo codinome bonobo, o recurso aparece em trechos de código da versão 17.4 beta do aplicativo.
A ideia é que o Gemini consiga realizar ações em múltiplas etapas, como pedir comida ou reservar uma corrida, de forma quase autônoma. Inicialmente, a função será liberada como experimento dentro do Google Labs.
Automação de tela integrada ao Android
A base técnica da novidade está em permissões introduzidas no Android 16 QPR3. Elas permitem que um aplicativo interaja com o conteúdo exibido na tela de outros apps para ajudar o usuário a concluir tarefas. Na prática, o Gemini poderá interpretar botões, campos de texto e menus visíveis, simulando gestos comuns como toques e rolagens.
Segundo textos encontrados no beta, o assistente será capaz de ajudar em tarefas como pedidos e reservas em aplicativos específicos. No começo, o foco deve estar em apps de transporte por aplicativo e entrega de comida, com possibilidade de expansão para fluxos mais complexos no futuro.
Controle do usuário e possíveis limitações
Apesar do nível de automação, o Google reforça que o usuário continuará no controle. A empresa alerta que o Gemini pode cometer erros e que a responsabilidade pelas ações executadas em nome do usuário permanece com a pessoa. A qualquer momento, será possível interromper o processo e assumir o controle manualmente.
Esse cuidado indica que a tecnologia ainda está em fase de amadurecimento, mesmo representando um passo importante rumo à chamada IA agêntica, conceito que o Google vem demonstrando desde 2025.
Privacidade e uso responsável da IA
No campo da privacidade, o Google explica que, ao interagir com aplicativos, o Gemini pode analisar capturas de tela. Caso a opção Manter Atividade esteja ativada, esse material pode ser revisado por avaliadores humanos treinados para melhorar os serviços da empresa.
Por isso, a recomendação é evitar o uso da automação de tela para tarefas sensíveis. O Google orienta que usuários não insiram senhas, dados bancários ou informações de pagamento durante interações com o Gemini, nem utilizem o recurso em situações de emergência.
No momento, a permissão de automação de tela aparece apenas em dispositivos Pixel 10 com Android 16 QPR3.
Ainda não há confirmação oficial se a funcionalidade será expandida para outros aparelhos, mas o movimento mostra que os planos do Google para tornar a IA mais ativa no dia a dia estão cada vez mais próximos da realidade.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google - e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!