“Adiantando-se” ao GPT-5! O Google lança o pacote de IA mais poderoso, com a assinatura de IA mais cara já feita, custando 1.800 yuans por mês
Um dia antes do Google I/O do ano passado, a OpenAI lançou o GPT-4o.
As situações ofensivas e defensivas são diferentes este ano.
Há alguns dias, a OpenAI revelou que o GPT-5 será All in One, integrando vários produtos. Agora mesmo, o Google implementou essa ideia na conferência I/O e trouxe diretamente seu balde de família de IA mais poderoso de todos os tempos.
Do lançamento dos modelos Gemini 2.5 Pro e Flash, ao Modo AI, ao Veo 3, Imagen 4 e kits de IA para desenvolvedores e criadores, o Google quase comprimiu o caminho do modelo ao produto em uma única conferência de imprensa.
Para ser mais preciso, os cenários mais promissores de aplicação de IA no momento foram "pré-ocultos" pelo Google em suas interfaces de produtos, fazendo as pessoas perceberem que ele ainda é um dos gigantes de IA do mundo, com a maior força de engenharia e capacidades de integração ecológica.
Não é de se espantar que muitos internautas tenham brincado que, após a coletiva de imprensa de quase duas horas, um grande número de startups morreriam nas mãos do Google.
No entanto, não é difícil perceber que algumas funções da coletiva de imprensa ainda estão em fase de "trailer" e testes em pequena escala, e podem estar longe de serem realmente implementadas.
Ajude-me a "comprar ingressos + encontrar assentos + preencher formulários" de uma só vez. O novo volume de pesquisa de IA do Google está ficando louco.
A IA está reescrevendo a lógica subjacente da pesquisa.
Na conferência I/O do ano passado, o Google lançou o recurso AI Overviews, que agora tem mais de 1,5 bilhão de usuários ativos mensais.
A IA generativa mudou gradualmente a maneira como as pessoas pesquisam, mas o que acontece é que não nos contentamos mais em inserir perguntas simples na caixa de pesquisa, mas sim em fazer perguntas mais complexas, mais longas e mais multimodais.
Hoje, o Google mais uma vez intensificou seus esforços para integrar pesquisa e IA, lançando uma experiência de pesquisa de IA de ponta a ponta: o Modo IA.
Como o CEO do Google, Sundar Pichai, apresentou, este é o formulário de busca de IA mais poderoso que o Google já desenvolveu. Ele não só possui capacidades de raciocínio mais avançadas e compreensão multimodal, mas também oferece suporte à exploração aprofundada por meio de perguntas contextuais e links da web.
Por exemplo, quando um usuário se depara com uma pergunta de pesquisa que exige interpretação complexa, o Modo IA pode ativar o mecanismo de "busca profunda", raciocinar entre diferentes informações e gerar um relatório de citação de nível especializado em poucos minutos, economizando horas de pesquisa.
Ao mesmo tempo, o Google também integrou os recursos multimodais do Projeto Astra à pesquisa para melhorar ainda mais a interatividade da pesquisa em tempo real. Com o recurso Search Live, os usuários podem simplesmente ligar a câmera para fazer perguntas e obter feedback em tempo real.
Este é o primeiro ano do Agent, e o Google também lançou cuidadosamente o recurso Project Mariner Agent para ajudar os usuários a concluir tarefas com mais eficiência.
Por exemplo, com apenas uma frase, "Ajude-me a encontrar dois ingressos acessíveis para o jogo deste sábado, localizado no andar inferior", o Modo IA pode pesquisar automaticamente opções em várias plataformas de venda de ingressos, comparar preços e estoque em tempo real e concluir operações tediosas, como preencher formulários, melhorando muito a eficiência.
Com base no modelo Gemini e no Google Shopping Graph, o Modo IA do Google pode ajudar você a refinar seus produtos e fornecer inspiração. Se quiser ver como as roupas ficam em você, basta enviar uma foto sua para experimentá-las virtualmente.
Além disso, o Modo IA também possui poderosos recursos de personalização. Ele pode fornecer sugestões personalizadas com base nas preferências contextuais do usuário e gerar gráficos e resultados de visualização, especialmente em pesquisas esportivas e financeiras.
Este recurso já foi totalmente lançado nos Estados Unidos e será expandido para mais regiões no futuro.
Sendo capaz de escrever código e salvar tokens, o Gemini 2.5 ganha a persona de "mestre aluno"
Em termos de recursos do modelo, o Google lançou a versão I/O do Gemini 2.5 Pro, que liderou as paradas.
Agora, o Gemini 2.5 Pro apresenta um modo de aprimoramento de inferência chamado "Deep Think". Esse recurso considera diversas suposições antes de gerar uma resposta, proporcionando uma compreensão mais profunda do contexto da pergunta.
2.5 O Pro Deep Think ficou em primeiro lugar na Olimpíada de Matemática dos Estados Unidos de 2025 (USAMO) e no LiveCodeBench (bench de programação), e pontuou 84,0% no MMMU (teste de raciocínio multimodal).
No entanto, o Google disse que gastaria mais tempo conduzindo avaliações de segurança de ponta e buscaria mais aconselhamento de especialistas em segurança. Como primeiro passo, o recurso Deep Think estará atualmente aberto a um pequeno grupo de testadores por meio da API Gemini.
O Gemini 2.5 Flash, focado em eficiência, também foi atualizado.
A nova versão 2.5 do Flash tem melhorias em benchmarks importantes, como raciocínio, multimodalidade, código e contexto longo, além de ser mais eficiente, com 20% a 30% menos tokens usados na avaliação.
O Flash 2.5 já está disponível para todos no aplicativo Gemini e será lançado no início de junho para desenvolvedores por meio do Google AI Studio e para empresas por meio do Vertex AI.
Em termos de experiência do desenvolvedor, o 2.5 Pro e o 2.5 Flash introduzirão a função "Resumo de Pensamento" na Gemini API e no Vertex AI, que pode apresentar o caminho de raciocínio do modelo de maneira estruturada com títulos, informações importantes e ferramentas de chamada.
Os desenvolvedores também serão beneficiados com isso. O Google anunciou que oferecerá suporte oficial às ferramentas MCP na API e no SDK Gemini, permitindo que os desenvolvedores acessem facilmente mais ferramentas de código aberto e ecossistemas de plug-ins.
Música, filmes e imagens estão disponíveis on-line. O Google fez da IA um sucesso
Nesta conferência, o Google trouxe uma nova geração de modelos de imagem e vídeo: Veo 3 e Imagen 4.
Diferentemente da geração de vídeo tradicional, o Veo 3 é um modelo de geração de vídeo que suporta áudio. Ele pode simular trânsito, cantos de pássaros e até conversas entre personagens em cenas de ruas urbanas, aumentando significativamente a sensação de imersão.
O modelo não apenas gera vídeos com base em textos e imagens, mas também sincroniza com precisão o ambiente físico com sincronização labial, melhorando muito o realismo da criação de vídeos.
O Veo 3 está atualmente disponível para assinantes Ultra no aplicativo Gemini e na plataforma Flow, e é compatível com usuários corporativos na plataforma Vertex AI.
O Flow mencionado acima é uma ferramenta de criação cinematográfica de IA criada pelo Google para criadores.
Os usuários simplesmente descrevem cenas de filmes em linguagem natural para gerenciar atores, locais, adereços e estilo, gerando segmentos narrativos automaticamente. O Flow já está disponível para usuários do Gemini Pro e Ultra nos Estados Unidos, com lançamento global em andamento.
Em termos de geração de imagens, a nova versão do Imagen 4 melhorou a precisão e a velocidade, e pode exibir tecidos, gotas de água e pelos de animais de forma realista em detalhes, além de gerar estilos mais abstratos.
Ele suporta resolução 2K e diversas proporções de aspecto, além de ser significativamente otimizado em termos de composição e ortografia, tornando-o adequado para criar cartões comemorativos, pôsteres e até mesmo histórias em quadrinhos.
O Imagen 4 está disponível hoje no Gemini, Whisk, Vertex AI e no Slides, Vids e Docs do Workspace. Há relatos de que uma versão dez vezes mais rápida será lançada no futuro.
Em termos de criação musical, o Google expandiu o acesso ao Music AI Sandbox, desenvolvido pelo Lyria 2, e lançou o modelo interativo de geração de música Lyria RealTime. O modelo agora está disponível para desenvolvedores por meio da API e do AI Studio.
Levando em consideração que o conteúdo gerado pelo Veo 3, Imagen 4 e Lyria 2 continuará a carregar a marca d'água SynthID, o Google lançou um novo Detector SynthID.
Os usuários só precisam enviar arquivos para identificar se eles contêm marcas d'água SynthID, que são usadas para combater falsificações e rastrear a origem do conteúdo de IA.
O Google quer criar um "modelo mundial" que pode até ajudar você a completar tarefas?
O Google espera transformar o Gemini em um "modelo mundial" que possa planejar, entender e simular todos os aspectos do mundo real.
O CEO do Google DeepMind, Demis Hassabis, disse que essa direção é um dos principais conceitos do Projeto Astra.
Ao longo do ano passado, o Google integrou gradualmente a compreensão de vídeo, compartilhamento de tela, funções de memória, etc. ao Gemini Live. Agora, a nova saída de voz do Gemini foi adicionada com áudio nativo, o que é mais natural; as capacidades de memória e de utilização do computador também são melhoradas simultaneamente.
Além disso, o Google também está explorando como usar recursos de agentes para ajudar as pessoas a lidar com multitarefas.
O Projeto Mariner é um deles, que pode realizar até dez tarefas ao mesmo tempo, como consulta de informações, reservas, compras e pesquisas. Ele agora está disponível para usuários Ultra nos Estados Unidos e em breve será integrado à API Gemini e outros produtos principais.
Um grande número de novos recursos de IA são lançados. Será que surgirá um recurso realmente matador?
O NotebookLM anunciou oficialmente ontem que se tornou o segundo melhor aplicativo de produtividade e o nono melhor aplicativo geral na App Store em 24 horas após seu lançamento.
Como uma importante exploração do Google em ferramentas de anotações de IA, o NotebookLM fornece funções como visão geral de áudio e mapas mentais.
Entre elas, as visões gerais de áudio atualmente oferecem suporte a mais de 80 idiomas e, esta semana, o Google também anunciou que introduzirá maior personalização neste recurso. Os usuários podem escolher o tamanho do resumo de acordo com suas necessidades, seja uma leitura rápida ou mais aprofundada.
Este recurso estará disponível primeiro em inglês e será expandido para mais idiomas posteriormente.
Ao mesmo tempo, o Google também está respondendo às demandas dos usuários por apresentação visual e em breve adicionará uma função de visão geral em vídeo ao NotebookLM. Os usuários podem converter o conteúdo das notas em vídeos educativos com apenas um clique, transmitindo informações de uma forma mais intuitiva.
No campo da programação de IA, o Google também trouxe os últimos avanços de Jules.
Este assistente de codificação autônomo, que apareceu originalmente no Google Labs, pode entender o código e concluir tarefas de desenvolvimento de forma autônoma, como escrever testes, criar funções e corrigir bugs. Agora ele entrou oficialmente na fase de testes beta públicos.
Além disso, o Google lançou um novo serviço de assinatura, o Google AI Ultra.
O plano oferece aos usuários profissionais acesso ilimitado aos modelos mais poderosos e recursos avançados do Google. É adequado para profissionais como cineastas, desenvolvedores, trabalhadores criativos, etc., com uma taxa mensal de US$ 249,99.
O programa está atualmente disponível nos Estados Unidos e em breve será expandido para outros países.
Na verdade, não faltam modelos ou funções para a IA hoje em dia. O que é realmente raro é um "produto matador" que possa ser incorporado à vida cotidiana e realmente penetrar na mente dos usuários comuns.
O Google certamente entende isso e está trabalhando duro para encontrar a resposta.
Portanto, podemos ver que nesta coletiva de imprensa, o Google fez quase tudo e mencionou tudo: desde texto, imagens, vídeos, música, até pesquisa, agentes e ferramentas criativas.
As cartas foram reveladas e a tecnologia está pronta. Agora, tudo o que o Google precisa é de uma mudança que realmente atinja os pontos fracos do usuário.
#Bem-vindo a seguir a conta pública oficial do iFanr no WeChat: iFanr (ID do WeChat: ifanr), onde mais conteúdo interessante será apresentado a você o mais breve possível.