Agora mesmo, o Windows oferece suporte à porta C na era da IA pela primeira vez! Microsoft traz três gigantes da IA para redefinir os sistemas operacionais
"O primeiro Agente XX do mundo" está quase se tornando um recurso padrão em lançamentos de produtos de IA, e você pode vê-lo quase todos os dias ao abrir os olhos. Altman mencionou em um discurso recente que 2025 será um ano revolucionário para agentes de IA.
Essa febre de agentes também tomou conta da Microsoft Build 2025 Developer Conference.
Durante toda a coletiva de imprensa, a palavra-chave que mais apareceu não foi IA, nem o protagonista do ano passado, Copilot, mas Agente, Agente e Agente.
Mas para a Microsoft, esta conferência é claramente mais do que apenas uma reunião de rotina de desenvolvedores.
O Copilot está evoluindo de um único produto para um centro de recursos em nível de sistema operacional. Além disso, o CEO da Microsoft, Satya Nadella, deixou claro: "Hoje, demos mais um passo importante para tornar o Windows a melhor plataforma para IA".
Microsoft adiciona uma "porta USB-C para aplicativos de IA" ao Windows
Nesta conferência, a Microsoft lançou diversas atualizações importantes, entre as quais o MCP atraiu muita atenção.
O chamado MCP, ou “Model Context Protocol”, foi lançado originalmente como código aberto pela empresa de IA Anthropic no ano passado.
Você pode simplesmente entendê-lo como uma "porta USB-C para aplicativos de IA". Assim como o USB-C unifica as conexões físicas de diferentes dispositivos, o MCP pode unificar as "conexões digitais" para que modelos de IA obtenham informações e usem ferramentas.
Isso permitirá que vários aplicativos de IA ou agentes inteligentes acessem mais facilmente o ecossistema do Windows, solicitando recursos do sistema, acessando arquivos e se comunicando com eficiência.
Agora, o Windows 11 oferece suporte nativo ao Model Context Protocol (MCP).
A integração do MCP e do Windows fornecerá uma estrutura padronizada para que agentes de IA se conectem a aplicativos nativos do Windows, permitindo que os aplicativos participem perfeitamente das interações dos agentes. Este recurso estará disponível para parceiros selecionados nos próximos meses para coletar feedback.
▲Arquitetura MCP no Windows
É relatado que, para acelerar a construção do ecossistema, a Microsoft cooperou com desenvolvedores como OpenAI, Anthropic, Perplexity, Figma, etc. para integrar gradualmente os recursos do MCP em mais aplicativos.
No passado, permitir que um modelo de IA acessasse o sistema de arquivos do Windows ou controlasse as configurações do sistema exigia muito desenvolvimento personalizado; após a introdução do MCP, os desenvolvedores podem encapsular esses recursos como "pontos de extremidade de serviço" (servidores MCP) e permitir que os agentes os descubram e os chamem por meio do registro MCP do Windows.
A Microsoft enfatizou que isso não só permitirá que os agentes de IA "vejam" mais recursos no sistema operacional, mas também abrirá novas possibilidades para eles colaborarem com aplicativos.
Por exemplo, o mecanismo de busca de IA Perplexity pode localizar e chamar automaticamente documentos relevantes no sistema de arquivos do Windows por meio do MCP sem que o usuário precise selecionar manualmente o diretório.
Tudo o que o usuário precisa fazer é uma solicitação em linguagem natural, como "Encontrar todos os arquivos relacionados às minhas férias", e a IA pode realizar a pesquisa automaticamente. No futuro, operações como chamar dados de rede no Excel e localizar e definir parâmetros no sistema poderão ser concluídas automaticamente pela IA.
“Queremos que o Windows evolua como plataforma e, eventualmente, permita que os agentes sejam integrados à operação diária do sistema operacional e se tornem uma forma importante para os usuários interagirem continuamente com aplicativos e dispositivos”, disse Pavan Davuluri, chefe do Windows, em uma entrevista ao The Verge.
O GitHub Copilot recebe uma grande atualização para corrigir bugs automaticamente e otimizar o código
Além das atualizações no nível do Windows, a Microsoft também está aumentando seu investimento em "agentização" no campo de desenvolvimento de software.
A nova versão do GitHub Copilot ajudará os desenvolvedores a realizar tarefas diárias, como refatorar código, melhorar a cobertura de testes, corrigir vulnerabilidades e até mesmo implementar novos recursos. Atualmente, esse recurso está disponível na versão de visualização.
Desenvolvedores que eram acordados por chamadas de operações tarde da noite agora têm a chance de ter uma boa noite de sono.
O GitHub Copilot agora detecta automaticamente vazamentos de memória à noite, gera um relatório de diagnóstico e envia correções para o Copilot. Por fim, o Copilot concluirá as correções do código e enviará o PR, permitindo que você durma tranquilamente.
Para enfatizar que a IA pode realmente funcionar, Nadella também a demonstrou no local.
Por exemplo, quando você deseja usar o Copilot para adicionar filtros a uma página da comunidade, ele não apenas entende as instruções com precisão, mas também faz sugestões de otimização proativamente, como adicionar itens de filtro pequenos, médios e grandes, ou agrupar e categorizar por categoria.
Nadella só precisa entregar a tarefa ao Copilot, que automaticamente assume, gera uma solicitação de pull e, finalmente, desenvolve o recurso com sucesso.
Para sistemas de aplicativos de nível empresarial que tradicionalmente têm altos custos de manutenção e longos ciclos de atualização, especialmente aqueles baseados em arquiteturas Java e .NET, a Microsoft também fornece kits de ferramentas de modernização correspondentes.
Os desenvolvedores podem usar o AI Agent para gerar automaticamente planos de atualização, analisar dependências e executar processos de migração, reduzindo significativamente o tempo necessário para concluir uma tarefa que normalmente levaria semanas ou até meses para apenas algumas horas.
Embora houvesse especulações de que a Microsoft e a OpenAI estavam se distanciando, Nadella ainda teve uma conversa remota por vídeo com o CEO da OpenAI, Sam Altman.
Os dois discutiram como as ferramentas de IA estão mudando a engenharia de software. Altman lembrou que a OpenAI vem explorando experiências de codificação inteligentes desde o lançamento do Codex em 2021.
Hoje, os agentes de IA se tornaram "membros virtuais" das equipes de desenvolvimento, capazes de trabalhar de forma independente e executar tarefas em lotes. “Você pode até atribuir correções de bugs diretamente a ele, e ele lhe dará um PR (pull request) em poucos minutos.”
Ao falar sobre o desenvolvimento futuro do modelo, Altman disse que o próximo estágio do modelo será mais confiável, mais automatizado e mais fácil de usar. Os desenvolvedores não precisarão mais selecionar modelos manualmente, mas alcançarão a verdadeira "tomada de decisão automática + plug and play".
Nadella enfatizou que o maior desafio atualmente é a velocidade da mudança tecnológica. Os desenvolvedores que conseguem se envolver profundamente com novas tecnologias desde o início obterão grandes vantagens.
O novo serviço da Microsoft permite que cada empresa crie seu próprio Copilot
Na conferência, a Microsoft também demonstrou as cinco principais entradas funcionais do Copilot: Chat, Search, Agent, Notebooks e Create.
Quando você envia seus requisitos para o Copilot, ele mostra o processo de pensamento, ou seja, o processo de raciocínio da longa cadeia de pensamento do CoT.
Na demonstração ao vivo, o Copilot Studio pode chamar modelos como GPT-4 ou servidores de terceiros, como Docusign, para processar automaticamente itens de tarefas no fluxo de trabalho.
Para usuários corporativos, a Microsoft lançou o serviço "Copilot Tuning".
Com o Microsoft 365 Copilot Tuning, os clientes corporativos podem usar seus próprios dados para ajustar modelos e criar assistentes de IA que atendam melhor às necessidades internas. Além disso, para garantir a segurança dos dados, esses modelos ajustados só podem ser acessados dentro da empresa, e as permissões subjacentes são controladas pelo sistema.
Com base nisso, os desenvolvedores podem usar a ferramenta Agent Builder do Microsoft 365 Copilot para criar agentes exclusivos.
Por exemplo, um escritório de advocacia pode criar um assistente de documentos jurídicos para gerar documentos de conformidade adequados ao seu estilo de negócios e terminologia profissional. Em outro exemplo, uma empresa de consultoria envolvida em setores regulamentados, como a aviação, pode criar um agente de perguntas e respostas com base nos documentos regulatórios acumulados da empresa para fornecer aos consultores respostas regulatórias mais precisas.
Por fim, a Microsoft também lançou uma plataforma de agregação chamada "Agent Store".
Como o nome sugere, esta nova plataforma pode ser entendida como uma "App Store" para agentes, exibindo vários agentes inteligentes desenvolvidos pela Microsoft, parceiros e clientes. Você pode explorar, testar e compartilhar esses agentes inteligentes em um só lugar e distribuir agentes inteligentes apropriados para colegas usarem juntos, melhorando assim de forma abrangente a eficiência da colaboração.
A Agent Store foi lançada oficialmente, então você pode experimentá-la.
Huang Renxun, Musk e Ultraman apareceram juntos, e a Microsoft trouxe metade do círculo da IA
A plataforma de desenvolvimento de IA de nível empresarial da Microsoft, Azure AI Foundry, também lançou uma série de atualizações importantes.
A primeira coisa que chama a atenção das pessoas é que o modelo principal da xAI, o Grok 3, chegou ao Azure AI Foundry, fornecendo forte suporte aos serviços empresariais da Microsoft em previsão financeira, suporte a diagnóstico médico, análise de documentos jurídicos e assistência em pesquisa científica.
A partir de hoje, o Grok 3 está disponível para teste gratuito no Azure AI Foundry por duas semanas. A partir de junho, será cobrada uma taxa de US$ 15 por milhão de tokens para produção global e US$ 16,5 por milhão de tokens para produção dentro da zona de dados.
Além disso, semelhante ao uso dos modelos OpenAI e Hugging Face no Azure AI Foundry, o Grok 3 também oferecerá suporte a PTU (taxa de transferência provisionada), um método de implantação mais econômico.
Antes da conferência Build, o fundador e CEO da xAI, Musk, aceitou uma entrevista remota com Nadella, na qual revelou que o núcleo da pesquisa e desenvolvimento do próximo modelo Grok 3.5 está intimamente ligado aos primeiros princípios.
Ele compartilhou: “A chave é encontrar o conhecimento básico da física, aplicar as ferramentas da física no processo de raciocínio e buscar a verdade com o mínimo custo de erro”.
Nadella deu ainda um exemplo: assim como na vida real, os carros sempre precisam dirigir com segurança e corretamente, da mesma forma, os robôs também precisam executar tarefas atribuídas por humanos, todas elas obedecendo às leis da física do mundo.
Ao falar sobre questões de segurança da IA, Musk resumiu seus pensamentos em uma frase: "Honestidade é a melhor política".
Atualmente, mais de 1.900 modelos de IA foram integrados ao Azure AI Foundry, incluindo vários modelos de resposta, modelos de raciocínio, modelos de tarefas específicas, modelos multimodais, etc., que estão disponíveis para uso gratuito pelos desenvolvedores.
Além das conhecidas OpenAI e xAI, as empresas associadas da Foundry Models agora também incluem a Mistral AI, a Meta, a Black Forest Labs e a empresa chinesa DeepSeek.
Talvez isso também confirme indiretamente que os rumores anteriores não eram infundados. De acordo com relatos da mídia estrangeira, a Microsoft está testando modelos de IA de empresas como Anthropic, DeepSeek, Meta e xAI para examinar seu desempenho no suporte ao Copilot.
Vale ressaltar que entre os três convidados de peso desta conferência Build, o último a aparecer foi Huang, da Nvidia, que tinha acabado de terminar seu discurso em sua própria exposição, a Computex.
Em uma conversa com o CEO da Microsoft, Satya Nadella, Huang apresentou um número surpreendente: a tecnologia avançará 40 vezes a cada dois anos. Isso também significa que, para acompanhar o ritmo da evolução da IA, não é mais suficiente atualizar o hardware a cada poucos anos. É necessário fazer "pequenas atualizações todos os anos" para acompanhar o ritmo.
Na opinião de Nadella, o investimento de longo prazo da Nvidia no ecossistema CUDA e sua insistência na compatibilidade arquitetônica permitem que os esforços dos desenvolvedores sejam reutilizados ao longo das gerações. Até mesmo produtos de alguns anos atrás podem se beneficiar dos algoritmos de software mais recentes.
Huang também acrescentou: De Hopper a Blackwell, a NVIDIA mais uma vez alcançou um salto de desempenho de 40 vezes, o que é inseparável da atualização de algoritmos, como a otimização da arquitetura do Transformer e a iteração da decodificação preditiva.
O que dá suporte a tudo isso é um ecossistema CUDA enorme e em constante expansão. Cada otimização e melhoria que os desenvolvedores globais investem neste ecossistema se espalhará como ondas, afetando milhares de usuários e empresas.
O futuro do Windows pertence aos humanos, mas também aos agentes
Falar sobre a incorporação profunda do Agente de IA em cada link do fluxo de trabalho pode parecer um pouco abstrato, então por que não dar uma olhada em uma demonstração ao vivo de John Link, gerente sênior de inovação de produtos da Microsoft?
Agora, seu assistente de laboratório, o agente científico, está sentado ao seu lado, segurando um computador. Você precisa concluir um projeto, que envolve três etapas principais: raciocínio de conhecimento, geração de hipóteses e execução de experimentos.
Na primeira parte do raciocínio de conhecimento, o agente científico primeiro chama o "ChemistryAgent" e depois o "Knowledge BaseAgent" para ajudar a recuperar, filtrar e integrar as informações necessárias para o projeto a partir da enorme quantidade de informações. Por fim, o agente científico apresenta os resultados do trabalho na forma de um resumo à esquerda e um relatório abrangente à direita, e fornece links citados pelo agente durante o trabalho.
Na segunda parte da geração de hipóteses, o agente Science atribui a tarefa ao ChemistryAgent, que processa as hipóteses que você propôs e atualiza suas novas ideias e requisitos em tempo real. Em seguida, o GenChemAgent gerou um plano de projeto experimental baseado em hipóteses.
Na próxima etapa, você pode usar os dados e planejar a verificação dos resultados experimentais.
Se o Agent realmente quiser completar a "última milha" de ações em nome dos humanos — comprar passagens, reservar hotéis, fazer experimentos, etc. —, o CTO Kevin Scott disse que algo como um protocolo é necessário para fornecer restrições e suporte, daí o Suporte MCP da Microsoft mencionado acima.
Scott tem mais projetos em mente para a forma final do Agente.
Scott acredita que o que as pessoas realmente querem é um agente com ricos recursos de memória, que possa rastrear e localizar fragmentos de memória com alta precisão.
Ao mesmo tempo, no futuro, o Agent não será apenas uma rede "Agentic" aberta, mas também um aplicativo de IA.
Kevin Scott mencionou que, com o avanço da tecnologia de IA, os agentes poderão executar tarefas mais complexas, interagir com vários serviços e conteúdos por meio de protocolos abertos e realizar trabalho colaborativo entre tarefas e plataformas.
Ele explicou: “Espero que, por meio de algum tipo de protocolo aberto, todos os agentes possam alcançar verdadeira interoperabilidade, para que qualquer pessoa que tenha serviços ou conteúdo possa acessar o agente de alguma forma e dizer: "Ei, estou aqui". E não importa quem criou o agente, eles podem se conectar a esses conteúdos e serviços.”
Para dar suporte à operação desses agentes, uma plataforma de sistema que seja flexível, poderosa e fácil de integrar é essencial.
Em outras palavras, o sinal enviado por esta conferência Build é bastante claro: no futuro, o Windows não será mais apenas um sistema operacional para humanos, mas também se tornará uma plataforma projetada especificamente para agentes de IA.
Autor: Li Chaofan, Xu Yu, Mo Chongyu
#Bem-vindo a seguir a conta pública oficial do iFanr no WeChat: iFanr (ID do WeChat: ifanr), onde mais conteúdo interessante será apresentado a você o mais breve possível.