Zhou Jingren, CTO da Alibaba Cloud: Tongyi Qianwen preencheu a lacuna entre os modelos de código aberto e de código fechado WAIC 2024 |

Hoje, o Alibaba Cloud entregou um boletim a todos na Conferência Mundial de Inteligência Artificial de Xangai.

De acordo com a introdução oficial do Alibaba Cloud, nos últimos dois meses, o volume de downloads do modelo de código aberto Tongyi Qianwen triplicou, ultrapassando 20 milhões de vezes, e o número de clientes do serviço Alibaba Cloud Bailian aumentou de 90.000 para 230.000, um aumento de mais de 150%.

Tomando isso, o CTO da Alibaba Cloud, Zhou Jingren, também reiterou a posição firme da Alibaba Cloud de adotar o código aberto:

Há dois anos, lançamos a grande série de modelos Tongyi na Conferência Mundial de Inteligência Artificial. Naquela época, anunciamos que o modelo principal de Tongyi seria de código aberto. A partir de hoje, Tongyi Qianwen alcançou código aberto em tamanho real e modo completo no verdadeiro sentido, diminuindo a lacuna entre os modelos de código aberto e de código fechado.

No ano passado, a série de modelos Tongyi continuou a evoluir e o desempenho dos modelos básicos também foi continuamente melhorado.

A julgar pelos resultados dos testes de benchmark OpenCompass, a pontuação de Tongyi Qianwen-Max está empatada com GPT-4 Turbo, que é a primeira vez que um grande modelo doméstico alcança um resultado tão bom neste benchmark.

Em agosto do ano passado, Tongyi foi o primeiro a se juntar às fileiras do código aberto, lançando dezenas de modelos ao longo da rota de código aberto "modo completo, tamanho completo".

Por exemplo, Qwen2-72B, o mais recente modelo de código aberto lançado por Tongyi Qianwen, alcançou a pontuação mais alta entre os grandes modelos domésticos, com uma pontuação total de 1.090 na Compass Arena, a grande arena chinesa do modelo PK anônimo. apenas para GPT-4o.

Na avaliação do modelo Open LLM Leaderboard organizada pela comunidade internacional de código aberto Hugging Face, o Qwen2-72B-instruct mais uma vez liderou a lista, superando modelos estrangeiros como Llama-3, Mixtral e Phi-3.

O cofundador e CEO da HuggingFace, Clem, postou: "Qwen2 é o rei e a China é a líder no campo global de grandes modelos de código aberto."

O custo de treinamento e iteração de grandes modelos é extremamente alto e a maioria dos desenvolvedores de IA e pequenas e médias empresas não podem arcar com isso.

Com base neste histórico, a plataforma de grandes modelos Bailian foi totalmente atualizada em maio deste ano para se tornar uma plataforma importante para o Alibaba Cloud transportar recursos de nuvem + IA, fornecendo serviços de aplicativos e personalização de grandes modelos totalmente gerenciados e completos.

Aqui, os desenvolvedores podem criar rapidamente aplicativos RAG com 5 a 10 linhas de código, permitindo que modelos grandes tenham os “plug-ins mais poderosos”.

Em termos de serviços modelo, Alibaba Cloud Bailian também insiste na criação de um ecossistema aberto.

Atualmente, a plataforma Bailian integrou centenas de APIs de grandes modelos. Além de Tongyi, Llama, ChatGLM e outras séries, é também a primeira a hospedar grandes modelos como Zero Mil Coisas e Baichuan Intelligence, cobrindo os principais fabricantes em casa. e no exterior, e está vinculado à Magic Open Source Community, e também apóia empresas na lista de modelos gerais ou industriais, fornecendo aos desenvolvedores opções de modelos suficientemente diversificadas.

A fim de minimizar o limite de uso do modelo e acelerar a explosão de aplicações de IA, em 21 de maio, o preço dos modelos da série Tongyi Qianwen foi significativamente reduzido. O modelo principal do nível GPT-4 caiu 97%, chegando a apenas 0,5 yuan. por milhão de tokens.

Zhou Jingren enfatizou que o Alibaba Cloud insistirá em abraçar o código aberto e a abertura para criar "a nuvem mais aberta da era da IA".

# Bem-vindo a seguir a conta pública oficial do WeChat do aifaner: aifaner (WeChat ID: ifanr). Mais conteúdo interessante será fornecido a você o mais rápido possível.

Ai Faner | Link original · Ver comentários · Sina Weibo |