A “IA mais poderosa” do Japão entrou em colapso! Seu código era inteiramente baseado no DeepSeek, deixando os internautas japoneses devastados.

"Finalmente chegou a era em que o Japão está usando IA chinesa para se passar por IA de fabricação japonesa."
Este assunto causou recentemente alvoroço nas discussões relacionadas ao X no Japão. O motivo é que ontem, o Grupo Rakuten, uma empresa japonesa de tecnologia, com o apoio do projeto GENIAC (projeto de IA financiado pelo governo japonês) do Ministério da Economia, Comércio e Indústria (METI), lançou com grande repercussão o Rakuten AI 3.0, considerado o modelo "maior e mais poderoso do Japão", com 700 bilhões de parâmetros.
No entanto, pouco depois do seu lançamento, a comunidade de código aberto descobriu rapidamente que a arquitetura subjacente do modelo provinha, na verdade, do nosso DeepSeek-V3, e que a Rakuten apenas fez pequenos ajustes aos dados japoneses.
Na conhecida biblioteca de IA de código aberto Hugging Face, o Rukuten AI 3.0 declara explicitamente em seu arquivo de configuração que sua arquitetura deriva do DeepSeek V3.
O comunicado de imprensa do modelo Rakuten AI 3.0 não mencionou o DeepSeek, apenas afirmando vagamente que "incorpora o melhor da comunidade de código aberto", levando muitos internautas a acreditarem que o modelo foi desenvolvido de forma independente no Japão.
Mais grave ainda, a Rakuten removeu secretamente o arquivo de licença MIT de código aberto do DeepSeek quando este foi lançado ao público, numa tentativa de encobrir esse fato. Somente após serem considerados culpados pela comunidade, eles, envergonhados, o adicionaram novamente com o nome de arquivo "NOTICE".
▲Você pode ver o histórico de commits dos arquivos do projeto no Hugging Face, mostrando as alterações.
Internautas japoneses expressaram sua desaprovação, dizendo: "Isso é inaceitável". Eles apontaram que o governo japonês estava subsidiando o aplicativo, mas fez apenas pequenos ajustes no aplicativo chinês DeepSeek. Alguns chegaram a dizer que usar o DeepSeek secretamente era realmente lamentável.
A alegação enganosa de ser "o mais forte do Japão"
A julgar apenas pelo comunicado de imprensa da Rakuten, este modelo pode de fato ser considerado um lançamento relativamente forte no campo dos LLMs no Japão.
Este é um modelo híbrido especializado (MoE) com aproximadamente 700 bilhões de parâmetros. Confirmado pela comunidade de código aberto, ele possui o mesmo total de 671 bilhões de parâmetros do DeepSeek V3, com 37 bilhões de parâmetros ativos. Ting Cai, Diretor de IA da Rakuten, o descreveu como "uma combinação excepcional de dados, engenharia e arquitetura inovadora em grande escala".
O nome Ting Cai não soa nada como o de uma pessoa japonesa nativa. Alguns internautas japoneses comentaram que usar o DeepSeek foi um exagero, e o que é ainda mais ultrajante é que o chefão por trás desse modelo é um linha-dura em relação à imigração.
Descobrimos que Ting Cai trabalhou no Google e na Apple, nos Estados Unidos, e passou mais de 15 anos na Microsoft. Ele estudou ciência da computação na Universidade de Stony Brook, também nos Estados Unidos. Em uma entrevista, ele afirmou que viajou para o exterior pela primeira vez aos dezoito anos, para o Japão, e que é, de fato, um " defensor ferrenho da imigração ".
Em relação ao desempenho do Rakuten AI 3.0, nos diversos testes de referência divulgados oficialmente, ele obteve pontuações extremamente altas em dimensões como conhecimento da cultura japonesa, história, raciocínio de nível de pós-graduação e até mesmo matemática competitiva e capacidade de seguir instruções, demonstrando um forte potencial para conquistar a vasta comunidade de modelagem no Japão.
No entanto, os modelos usados para comparação são o GPT 4o, agora descontinuado, o GPT OSS com apenas 120 bilhões de parâmetros e o modelo ABEJA QwQ 32b desenvolvido pela ABEJA, outra empresa emergente de desenvolvimento de IA no Japão, baseado no Qianwen.
Comparado a um máximo de 120 bilhões de ienes, 700 bilhões de ienes representam uma vantagem significativa para a Rakuten AI 3.0. Além disso, como principal beneficiária do projeto GENIAC do Ministério da Economia, Comércio e Indústria, a Rakuten recebeu recursos computacionais substanciais. O objetivo inicial do projeto GENIAC era estabelecer um ecossistema de IA generativa desenvolvido internamente no Japão, atenuando a preocupação com a dependência da tecnologia de gigantes estrangeiros.
Com sua enorme variedade de parâmetros, aliada ao filtro de "seleção nacional", a Rakuten AI 3.0 ganhou a aura de "esperança de toda a aldeia" desde o seu lançamento.
Ainda precisa ser DeepSeek
Mas o halo desapareceu mais rápido do que o esperado.
Deixando de lado os 700 bilhões de parâmetros e a arquitetura MoE, essas palavras-chave combinadas são incrivelmente relevantes na atual comunidade de modelos de big data de código aberto. Quando os desenvolvedores da comunidade de código aberto analisaram os arquivos de configuração de código detalhados da Hugging Face, ficaram surpresos ao descobrir que o DeepSeek V3 era mencionado diretamente.
De uma perspectiva fundamental, trata-se de uma combinação de "arquitetura chinesa + ajustes japoneses". O DeepSeek fornece a arquitetura subjacente e os recursos de inferência globalmente validados e altamente eficientes, enquanto a Rakuten aproveita suas vantagens locais para ajustá-la com corpora japoneses de alta qualidade, tornando-a mais responsiva à cultura japonesa.
Objetivamente falando, pegar um modelo de código aberto e fazer ajustes localizados é algo perfeitamente normal e razoável na comunidade tecnológica. Assim como no caso do modelo ABEJA QwQ 32b usado para comparação, eles nem sequer mudaram o codinome, usando diretamente o QwQ do Qwen.
▲O Nikkei informou que seis dos dez principais modelos desenvolvidos por empresas japonesas foram baseados no DeepSeek ou no Qwen e posteriormente modificados.
Se a Rakuten admitisse abertamente o uso da plataforma DeepSeek desta vez, seria apenas um lançamento "genérico" e sem brilho, e eles poderiam até se aproveitar da popularidade da DeepSeek.
Mas eles optaram por se esconder.
Anteriormente, quando compartilhamos informações sobre o uso de projetos de código aberto pelo navegador Meituan, mencionamos diferentes licenças de código aberto. Entre elas, a licença MIT do DeepSeek é considerada a mais "humilde e tolerante" do mundo do código aberto. Ela permite que os usuários a utilizem para fins comerciais, a modifiquem e até mesmo a monetizem gratuitamente por meio de softwares proprietários. Sua única exigência é que os direitos autorais e as declarações de licença do autor original sejam mantidos no projeto.
▲Rakuten Models divulga comunicado de imprensa|
https://global.rakuten.com/corp/news/press/2026/0317_01.html
A Rakuten não apenas omitiu completamente o DeepSeek de seu blog de lançamento de modelo, como também removeu o documento de licença de sua base de código e anunciou publicamente que estava usando a licença Apache 2.0 para seu projeto de código aberto. Embora a Apache 2.0 também seja uma licença de código aberto extremamente amigável para fins comerciais, ela é mais formal e frequentemente usada por grandes empresas para construir seus próprios ecossistemas de código aberto e proteger suas patentes.
▲Comparação de diferentes licenças de código aberto: A licença MIT é mais permissiva e concisa do que a licença Apache. Embora conceda liberdade, a Apache 2.0 inclui explicitamente proteção de licenciamento de patentes e cláusulas de isenção de responsabilidade mais rigorosas, tornando-a adequada para projetos comerciais de maior porte com requisitos mais rígidos de prevenção de riscos legais. | Imagem da Internet
O plano da Rakuten foi astuto: remover o nome DeepSeek, colocar sua própria licença Apache 2.0 e, em seguida, se apresentar como a salvadora da IA no Japão, "generosamente disponibilizando em código aberto um modelo massivo com 700 bilhões de parâmetros".
As versões europeia e americana do DeepSeek, que vêm sendo discutidas há mais de um ano, aparentemente nunca foram produzidas.
A Rakuten também quer criar uma versão japonesa do DeepSeek, mas sob a pressão do poder computacional e dos custos de treinamento, e na atual conjuntura de rápido desenvolvimento de modelos em larga escala em todo o mundo, é obviamente difícil alcançar a máxima relação custo-benefício da tecnologia chinesa sem abrir mão do status de "gigante local".
Por que não esperamos juntos pelo DeepSeek V4?
#Siga a conta oficial do iFanr no WeChat: iFanr (ID do WeChat: ifanr), onde você encontrará conteúdo ainda mais interessante o mais breve possível.









