Lançada uma plataforma de treinamento híbrido de chip heterogêneo em escala de quilocard, Wuwen Core Dome visa criar a infraestrutura de IA mais econômica |

Qual o papel da infraestrutura na era da IA? Alguns dizem que é como eletricidade, outros dizem que é como água.

Wuwen Xinqiong acredita que uma excelente infra-estrutura é uma espécie de "mágica" que pode efetivamente reduzir o custo de grandes modelos e permitir que mais pessoas adotem novas tecnologias.

Em 4 de julho, Xia Lixue, cofundador e CEO da Wuwen Core Dome, lançou a primeira plataforma de treinamento híbrido de chip heterogêneo de quilocalorias do mundo. A utilização do poder de computação do cluster de treinamento híbrido heterogêneo de quilocalorias atingiu um máximo de 97,6%.

Quatro meses atrás, a plataforma de nuvem de serviço e desenvolvimento de grandes modelos Infini-AI da Wuwen Core Dome anunciou seu primeiro beta público. Clientes de grandes empresas de modelos como Zhipu AI, Dark Side of the Moon e Shengshu Technology têm usado Infini-AI de forma estável. Em termos de poder de computação, existem mais de 20 startups de aplicativos AI Native que continuam a chamar vários modelos predefinidos de APIs no Infini-AI e usam a cadeia de ferramentas fornecida pelo Wuwen Core Dome para desenvolver seus próprios modelos de negócios.

Construir uma infraestrutura nativa de IA na era dos grandes modelos pode não apenas fornecer aos desenvolvedores de IA um ambiente de P&D mais versátil, eficiente e conveniente, mas também é uma pedra angular para alcançar a integração eficaz dos recursos de computação e apoiar o desenvolvimento sustentável da IA. indústria. Em comparação com o padrão "relativamente concentrado" de camadas de modelo e camadas de chips no mundo, as camadas de modelo e camadas de chips da China são mais diversas.

No entanto, a diversidade também significa desafios. Um grande número de chips heterogêneos também formou “silos ecológicos”. Diferentes ecossistemas de hardware são fechados e incompatíveis entre si, o que traz uma série de desafios técnicos aos usuários do poder computacional. Esta é a maior dificuldade na construção de infra-estruturas AI Native, e é também uma razão importante pela qual a actual grande indústria modelo enfrenta uma "escassez de poder computacional".

Wuwen Core Qiong possui recursos de otimização de computação de IA de alto nível e recursos de solução de poder de computação, bem como julgamento prospectivo sobre os padrões da indústria "M tipos de modelos" e "N tipos de chips", e assumiu a liderança na construção de um Padrão ecológico de camada intermediária "MxN" para alcançar implantação eficiente e unificada de vários algoritmos de modelo grande em vários chips.

Até agora, a Infini-AI suportou mais de 30 modelos, como Qwen2, GLM4, Llama3, Gemma, Yi, Baichuan2, série ChatGLM3, etc., bem como AMD, Huawei Shengteng, Biren, Cambrian, Suiyuan, Haiguang, Tianshu Existem mais de 10 tipos de placas de computação, incluindo Zhixin, Muxi, Moore Thread e NVIDIA.

"Não há contradição entre aumentar o limite técnico e a difusão da tecnologia, e depende de como estamos determinados a tratar esta tecnologia", disse Xia Lixue: "Quando usarmos várias aplicações de IA no futuro, não saberemos." quais modelos básicos ele chama e quais modelos são usados. Que tipo de placa aceleradora tem o poder computacional – esta é a melhor infraestrutura AI Native."

# Bem-vindo a seguir a conta pública oficial do WeChat do aifaner: aifaner (WeChat ID: ifanr). Mais conteúdo interessante será fornecido a você o mais rápido possível.

Ai Faner | Link original · Ver comentários · Sina Weibo |