Eu vi o novo Gemini e o Projeto Astra, aqui está porque é o futuro

Estamos entrando rapidamente no domínio da IA ​​que é útil, e a chave para isso é o Projeto Astra , o novo agente universal de IA do Google que é útil nas tarefas diárias. Oppo, Honor, Motorola e Tecno desenvolveram novas formas de a IA ajudá-lo na sua vida diária, mas a chave para a próxima geração de inteligência artificial é a abordagem multimodal do Astra.

A premissa é simples: aponte a câmera do seu telefone para algo e tenha uma conversa ao vivo com o Google Gemini , onde você pode fazer perguntas e dar sugestões com base no que está vendo.

A tecnologia por trás é complexa e, como você pode imaginar, a implementação de recursos está acontecendo de forma mais fragmentada. Os dois primeiros recursos estão finalmente prontos e, antes de seu lançamento no final deste mês, pude experimentar uma prévia deles junto com outros anúncios do Gemini. O que vi é o futuro da IA ​​e estou super animado:

Recursos do Astra: Gemini Live Video e compartilhamento de tela

O aplicativo Gemini Live no Galaxy S25 Ultra transmitido para uma TV mostrando o aplicativo Gemini com o recurso de câmera aberto
Nirave Gondhia / Tendências Digitais

A grande atualização do Gemini é o novoGemini Live , que ganha novas habilidades visuais alimentadas pelo Projeto Astra. Faz sentido que os recursos do Astra ajudem a construir a próxima geração do Google Live de várias maneiras.

Se você estava esperando por uma IA que pudesse ajudá-lo a entender o mundo ao seu redor, o novo recurso de compartilhamento de vídeo mudará sua vida. A demonstração envolveu fazer perguntas relacionadas a um negócio de cerâmica, e o Gemini Live tratou de compreender cores, formas e contexto sem a necessidade de vários prompts.

Como você verá no vídeo acima, é absolutamente emocionante e as possibilidades são infinitas. Não tenho ideia se isso é possível, mas o Gemini poderia ajudá-lo a trocar um pneu ou consertar um problema comum no motor se você nunca teve que fazer isso antes? Que tal pedir conselhos de moda, procurar um diagnóstico médico ou traduzir ao vivo o que está ao seu redor durante uma viagem?

O aplicativo Gemini Live no Galaxy S25 Ultra transmitido para uma TV mostrando o aplicativo Gemini exibindo a transcrição de uma conversa e as etapas executadas O aplicativo Gemini Live no Galaxy S25 Ultra transmitido para uma TV mostrando o aplicativo Gemini exibindo a transcrição de uma conversa e as etapas executadas O aplicativo Gemini Live no Galaxy S25 Ultra transmitido para uma TV mostrando o aplicativo Gemini com o recurso de câmera aberto

Claro, há também o caso de uso profissional para isso, e o novo Gemini Live também suporta compartilhamento de tela. Isso permitirá que você compartilhe sua tela, faça perguntas e deixe que Gêmeos o guie. Posso ver isso sendo particularmente impactante ao executar tarefas complexas, como preencher papelada, aprender um assunto avançado ou preencher documentação financeira e fiscal.

Esses não são os únicos avanços nesta nova IA Agentic, já que o Google exibiu outros novos recursos do Gemini para produtos em seu ecossistema.

Gemini Live agora pode ler arquivos, documentos e imagens

Reconhecimento de documentos no Google Gemini Live
Nirave Gondhia / Tendências Digitais

Juntamente com o recurso de compartilhamento de tela no Gemini Live, o Google mostrou a capacidade do Gemini de ler e compreender uma ampla variedade de imagens, arquivos e documentos. Este recurso estende a premissa central do Gemini Live para incluir uma variedade de tipos de arquivos diferentes.

Esse recurso provavelmente será um grande benefício para os alunos, já que o Google demonstrou como um aluno pode usá-lo. Considere a página de um livro sobre DNA. Conforme mostrado no vídeo, o Gemini Live pode explicar o assunto com muito mais detalhes, pesquisar em sua base de conhecimento informações adicionais relevantes e até mesmo criar uma rima para ajudá-lo a lembrar os principais fatos.

Reconhecimento de documentos no Google Gemini Live Reconhecimento de documentos no Google Gemini Live Reconhecimento de documentos no Google Gemini Live

A adição desses recursos elevará o Gemini Live ao próximo nível e, esperançosamente, inaugurará a era dos próximos óculos Google, mais cedo ou mais tarde. A demonstração ocorreu com o aplicativo Gemini no Galaxy S25 Ultra, portanto deverá estar disponível para todos os usuários do Gemini Advanced.

Novos recursos para o Google Home: Rotinas Gemini

Integração do Google Home e Gemini em um Nest Hub Max
Nirave Gondhia / Tendências Digitais

Esta demonstração foi projetada para mostrar como a Gemini AI está evoluindo a casa inteligente. De muitas maneiras, o Gemini será usado para realizar o tão esperado sonho de uma casa inteligente autônoma.

A demonstração envolve um cenário identificável de perda de cookies. Se você tem filhos, um parceiro que gosta de doces ou até mesmo um animal de estimação sorrateiro, a nova integração do Google Home e do Gemini irá pegá-los em flagrante.

Integração Google Home e Gemini em um smartphone Integração Google Home e Gemini em um smartphone Integração Google Home e Gemini em um smartphone

A demonstração mostrou como o Gemini pode ser usado para percorrer as imagens de uma Nest Cam, encontrar o momento específico em que os biscoitos desapareceram e analisar a cena. Tudo a partir de uma simples pergunta sobre quem comeu o biscoito que faltava? Com um único comando, o Gemini também pode configurar uma nova rotina que será executada automaticamente na próxima vez que o culpado for localizado naquela câmera. Mal posso esperar para testar ainda mais as rotinas, especialmente com prompts e rotinas mais complexas.

O futuro da IA ​​é o Google Gemini

Logotipo da Gemini na lateral do estande do Google Gemini no MWC 2025
Nirave Gondhia / Tendências Digitais

Estou impressionado com o lançamento do Gemini do Google, pelo menos por seus esforços em smartphones. A implementação generalizada em centenas de milhões de dispositivos Android e as parcerias com diferentes fabricantes de telefones para desenvolver novos recursos são os principais impulsionadores do crescimento de usuários e recursos.

O Google é o intermediário consumado aqui, ajudando a fundir diferentes ideias e necessidades dos fabricantes de telefones como parte de seu roteiro de recursos. Chegará um momento em que alguns recursos permanecerão exclusivos de um fabricante de telefone específico, mas, por enquanto, é ótimo que todos os usuários do Gemini possam testar e experimentar esses avanços.

Reconhecimento de documentos no Google Gemini Live
Nirave Gondhia / Tendências Digitais

Isto é, se você estiver pagando pelo Gemini Advanced. Como esperado, os recursos de vídeo e compartilhamento de tela no Gemini Live são limitados aos usuários do Gemini Advanced, embora não esteja claro se todos ou parte dos outros recursos estarão disponíveis sem uma assinatura paga. Se você ainda não comprou um, agora pode ser um bom momento. Se precisar de um novo telefone, você também pode obter 1 ano do plano Google One AI – que inclui Gemini Advanced – gratuitamente na compra do Pixel 9 Pro , do Pixel 9 Pro XL ou do Pixel 9 Pro Fold .

As últimas atualizações do Gemini me deixaram extremamente entusiasmado com a IA em smartphones no futuro. Os primeiros recursos do Gemini eram menos úteis para mim porque se concentravam em empreendimentos mais criativos, enquanto estou mais interessado em hacks de produtividade, mas isso mudou muito rapidamente. Para usuários do iPhone, talvez o Gemini possa ajudar a preencher a lacuna após o atraso no novo Siri com tecnologia de IA anunciado no início desta semana.