Camarão Montado em um Cavalo! O modelo anônimo que tem circulado no mundo das lagostas há uma semana é, na verdade, este Detalhes da experiência do usuário mais recente incluídos
Na semana passada, um modelo misterioso começou a circular na comunidade de entusiastas de lagostas: Pony-Alpha-2.
Sem coletiva de imprensa ou apresentação oficial, o modelo foi testado discretamente na plataforma AutoClaw da Zhipu, aberto para testes beta dos usuários. Inesperadamente, a notícia se espalhou rapidamente, levando todos a perguntarem: o que exatamente é esse modelo de IA anônimo?

Hoje, o mistério foi resolvido. Trata-se do GLM-5-Turbo, o "primeiro modelo de lagosta do mundo", lançado oficialmente hoje pela Zhipu, e também o primeiro modelo de código fechado da Zhipu desde 2025.

Por que o modelo de propósito geral continua falhando ao lidar com lagostas?
Quem já criou uma lagosta provavelmente sabe disso: fazer o modelo conversar ou escrever ocorre sem problemas. Mas, quando se trata de executar tarefas de fato, os problemas geralmente começam a aparecer por volta da terceira etapa. Chamadas de ferramentas falham, o contexto é esquecido, tarefas longas travam no meio do caminho — todo tipo de coisa acontece.
A raiz do problema não reside na estrutura, mas no próprio modelo subjacente. O objetivo do treinamento de um modelo grande de propósito geral é o diálogo, enquanto a execução de fluxos de trabalho é uma questão completamente diferente. Quando esse modelo entra em um cenário real complexo, com múltiplas etapas, diversas ferramentas interligadas e execução contínua, ele se mostra insuficiente.
O GLM-5-Turbo foi projetado para resolver esse problema. Desde a construção dos dados de treinamento até os objetivos de otimização, todo o processo foi especificamente otimizado para o cenário da lagosta, com foco no treinamento de cinco capacidades-chave.
Em termos de invocação de ferramentas, a invocação estável de ferramentas externas e diversas habilidades é aprimorada, sendo a operação ininterrupta um requisito básico. Quanto à conformidade com instruções, instruções longas, complexas e com múltiplas camadas podem ser decompostas com precisão, dando suporte à identificação de alvos, ao planejamento de etapas e à colaboração multiagente.
Tarefas agendadas e contínuas são outro foco fundamental. O modelo consegue compreender instruções ao longo do tempo, lidar com cenários acionados por tempo e garantir a execução ininterrupta de tarefas longas. Suas capacidades de programação dão continuidade aos pontos fortes da série GLM, possibilitando tarefas de engenharia de agentes de longo alcance com mínima intervenção humana, migrando da Codificação por Vibração para a Engenharia de Agentes. Em termos de velocidade, também foram feitas melhorias específicas para cenários de alto rendimento e cadeias longas, e sua estabilidade de resposta supera a de modelos similares.
Em termos de avaliação, o GLM-5-Turbo alcançou a classificação mais alta entre os modelos nacionais no ZClawBench, o benchmark completo para cenários de lagosta desenvolvido pela Zhipu.

A criação do ZClawBench tem um contexto específico.
Com a crescente popularidade do OpenClaw, os tipos de tarefas atuais abrangem uma variedade de cenários, como instalação e configuração, desenvolvimento de código, coleta de informações, análise de dados e criação de conteúdo.
A base de usuários expandiu-se dos desenvolvedores iniciais para incluir trabalhadores de escritório preocupados com a eficiência, profissionais da área financeira, engenheiros de operações, criadores de conteúdo e analistas de pesquisa. O ZClawBench foi desenvolvido com base nesses casos de uso do mundo real, e seu banco de questões e trilhas de teste agora estão totalmente disponíveis ao público.
Além disso, o GLM-5-Turbo também é integrado ao dispositivo Mechrevo da iSoftStone, criando uma experiência nativa de terminal com Agente de IA. No entanto, vale mencionar um detalhe importante: o preço da API do GLM-5-Turbo sofreu seu segundo aumento este ano, subindo 20% em comparação com o GLM-5.

Embora considerando que as tarefas relacionadas a lagostas frequentemente envolvam dezenas de chamadas de ferramentas e conexões contextuais, o consumo de tokens para a compilação de atas de reuniões interdepartamentais típicas e a distribuição de tarefas excede em muito o de conversas comuns, as dimensões da contabilização de custos para empresas também estão mudando —
A quantidade de tokens gastos deixou de ser o ponto principal; o mais importante é quanta mão de obra os funcionários de IA economizam.
Juntamente com o modelo, também estão sendo lançados combos de lagosta para indivíduos e empresas, com versões individuais e para equipes disponíveis.
Seja você um profissional autônomo, uma equipe de startup ou uma grande ou média empresa, você pode se inscrever de forma flexível de acordo com o tamanho do seu negócio, com um máximo de 5 tokens por conta. Empresas podem se inscrever de forma flexível com base no número real de funcionários por meio da versão Equipe, garantindo o fornecimento de tokens e funcionários de IA online estáveis a um custo controlável.
O sistema de gerenciamento de segurança empresarial que o acompanha, "Claw for Enterprise Security", oferece suporte ao agendamento unificado e à orquestração de permissões para diferentes tipos de Claws. Por meio de um console de gerenciamento centralizado, o caminho de execução, a cadeia de chamadas da ferramenta e o consumo de recursos de cada tarefa do agente podem ser monitorados e visualizados em tempo real.
Modelo de lagosta, visando o ponto de entrada da empresa
Ler apenas a introdução não basta; testei o produto com uma tarefa real e aqui está a minha experiência.
O primeiro cenário é muito simples: defina um alarme para 10 minutos depois e, quando chegar a hora, o Lark lembrará você de "levantar e se movimentar". O modelo responde diretamente que o lembrete das 14h22 foi definido e o Lark recebe a mensagem exatamente 10 minutos depois, sem que seja necessária qualquer intervenção manual.

O segundo cenário envolveu a coleta de informações, resumindo os principais tópicos do dia no mundo da tecnologia. O modelo foi executado por meio de uma ferramenta de teste, compilando informações importantes como a conferência GTC da Nvidia, o anúncio de Musk sobre o projeto de fabricação de chips Terafab, que começaria em sete dias, e a inclusão de seis novas indústrias-chave para o futuro pelo governo.

O último cenário, que é apenas para diversão, é um pouco mais complicado. O robô roda em um computador na nuvem fornecido pela Lark, que é uma máquina virtual ECS da Alibaba Cloud. Eu o configurei para criar uma skill de monitoramento de temperatura, encapsulá-la e carregá-la e ativá-la automaticamente, emitindo um alerta da Lark se a temperatura ultrapassar 40 graus Celsius. O problema é que as máquinas virtuais na nuvem não possuem sensores de temperatura físicos, então ler a temperatura diretamente não funciona.
O modelo não ficou travado esperando que eu desse instruções. Em vez disso, tentou cinco métodos de leitura diferentes, um de cada vez. Depois que nenhum deles funcionou, passou a usar a carga da CPU como um indicador indireto para estimar a temperatura e me explicou o motivo.
Depois de escrever o script e executá-lo localmente, escrevi o arquivo SKILL.md, registrei-o no openclaw.json, reiniciei o sistema e executei o comando doctor para confirmar o carregamento bem-sucedido. Finalmente, o Lark enviou uma confirmação: a temperatura atual é de 27°C e tudo está normal. Todo o processo ocorreu sem interrupções e não esperou que eu enviasse o próximo comando.

Após a conclusão das três tarefas, a ferramenta funcionou perfeitamente, as instruções de tempo foram interpretadas com precisão e as informações coletadas geraram conclusões que foram além de uma simples listagem. É claro que essas são tarefas relativamente comuns com o tema lagosta; cenários colaborativos multiagentes mais complexos exigem testes adicionais em situações reais.
No momento da publicação desta notícia, o GLM-5-Turbo já está online. Desenvolvedores e usuários corporativos podem acessar a API por meio da plataforma aberta BigModel.cn ou api.z.ai, ou ainda através do pacote Lobster.
O GLM Coding Plan Max foi integrado ao GLM-5-Turbo. O plano Pro oferecerá suporte a ele ainda este mês, e o plano Lite estará disponível em abril. Para cenários de agentes que exigem operação estável a longo prazo, execução contínua em segundo plano ou maior carga, recomenda-se o plano Lobster.

O modelo padrão do AutoClaw Aolong foi alterado para GLM-5-Turbo. De agora até 22 de março, há um desconto por tempo limitado nos pacotes de combustível, com um desconto máximo de 34%. O pacote de combustível é válido por 7 dias a partir da data da compra.

Vale ressaltar que o cenário da lagosta permitiu que usuários comuns experimentassem de fato a diferença entre "IA fazendo tarefas para mim" e "IA respondendo às minhas perguntas". O primeiro requer capacidades completamente diferentes, o que explica a lacuna significativa entre modelos treinados especificamente para cenários com lagostas e modelos de uso geral.
Na era dos agentes, a competição pode, em última análise, não se resumir ao nível de capacidades gerais, mas sim a quem consegue operar de forma verdadeiramente fluida e estável, podendo ser utilizado pelas empresas como uma ferramenta de produtividade em cenários específicos. As capacidades são apenas o ingresso; o verdadeiro teste é a habilidade de entregar resultados de forma consistente.
Aqui está o link para experimentar:
- Cliente AutoClaw Aolong: https://autoglm.zhipuai.cn/autoclaw
- Z.ai: z.ai
- APLICATIVO Zhipu Qingyan/versão Web
#Siga a conta oficial do iFanr no WeChat: iFanr (ID do WeChat: ifanr), onde você encontrará conteúdo ainda mais interessante o mais breve possível.

