O Android 17 pode transformar o Gemini em seu mordomo pessoal de aplicativos.
O Google acaba de nos dar uma prévia de como o Android 17 pode mudar a forma como você usa seu celular. Novas ferramentas para desenvolvedores, anunciadas na terça-feira, permitem que agentes de IA como o Gemini acessem diretamente seus aplicativos instalados para encontrar fotos, gerenciar calendários ou reservar um transporte compartilhado com várias paradas enquanto você faz outra coisa.
A ideia é simples. Em vez de abrir os aplicativos um por um, você diz a uma IA o que precisa. O Google chama isso de " futuro agencial " e está sendo implementado gradualmente a partir de agora na linha Galaxy S26 e em alguns dispositivos Pixel 10. Um toque longo no botão liga/desliga desses telefones permite que você delegue tarefas complexas ao Gemini. Inicialmente, a IA funciona com aplicativos de entrega de comida, supermercado e transporte por aplicativo nos EUA e na Coreia.
Duas maneiras pelas quais Gêmeos assume o controle
O Google está construindo isso em duas frentes. A primeira é o AppFunctions, uma estrutura que permite aos desenvolvedores expor recursos específicos de aplicativos diretamente para a IA. A integração com a Galeria da Samsung no Galaxy S26 mostra como funciona. Você pede ao Gemini para "mostrar fotos do meu gato na Galeria da Samsung". A IA encontra e exibe as fotos. Você nem precisa abrir o aplicativo da galeria. Isso já funciona para calendário, notas e tarefas em dispositivos de diversos fabricantes.
A segunda vertente é mais abrangente. Para aplicativos sem integrações dedicadas, o Google está testando uma estrutura de automação de interface do usuário. Ela permite que o Gemini execute tarefas genéricas. A versão beta será lançada nos mesmos dispositivos, com suporte a um conjunto selecionado de aplicativos nas categorias de entrega de comida, supermercado e transporte por aplicativo. A IA lida com o trabalho complexo usando o contexto existente do seu aplicativo.
Você permanece no banco do motorista.
Permitir que uma IA funcione livremente dentro dos seus aplicativos pode parecer um risco para a privacidade. O Google afirma que projetou esses recursos com a privacidade e a segurança como base. Quando o Gemini executa uma tarefa por meio da automação da interface do usuário, você pode acompanhar o progresso por meio de notificações ou uma visualização ao vivo. Se algo parecer errado, você pode intervir e assumir o controle manualmente.
Ações sensíveis recebem proteções adicionais. O Gemini avisa você antes de concluir ações como uma compra. O processamento em si acontece no seu dispositivo, não em um servidor remoto. O Google apresenta isso como controle do usuário integrado à experiência. O objetivo é fazer com que a automação pareça útil, e não invasiva.
Android 17 e o que vem a seguir
Ainda é cedo. O Google está começando com um pequeno grupo de desenvolvedores para aprimorar a experiência. A prévia da automação da interface do usuário está limitada a dispositivos e categorias de aplicativos específicos em apenas dois países. Mas o roteiro indica que o Android 17 será o momento em que esses recursos serão ampliados para mais usuários, desenvolvedores e fabricantes de dispositivos.
Por enquanto, se você tem um Galaxy S26 ou um Pixel 10 selecionado, pode experimentar a versão beta quando for lançada. Para todos os outros, a conclusão é simples: seu telefone está prestes a ficar mais inteligente para lidar com tarefas tediosas. A transição de abrir aplicativos para dizer à IA o que você precisa está chegando. O Android 17, ainda este ano, provavelmente será quando isso começará a parecer normal.
O artigo "Android 17 pode transformar o Gemini em seu mordomo pessoal de aplicativos" foi publicado originalmente no Digital Trends .

