Acontece que não é tão difícil fazer o que a OpenAI faz por menos
Mesmo que a OpenAI continue a agarrar-se à sua afirmação de que o único caminho para a AGI passa por enormes gastos financeiros e energéticos, investigadores independentes estão a aproveitar tecnologias de código aberto para igualar o desempenho dos seus modelos mais poderosos – e fazem-no por uma fracção do preço.
Na sexta-feira passada, uma equipe unificada da Universidade de Stanford e da Universidade de Washington anunciou que havia treinado um modelo de linguagem grande focado em matemática e codificação que funciona tão bem quanto os modelos de raciocínio o1 da OpenAI e R1 da DeepSeek . A construção custou apenas US$ 50 em créditos de computação em nuvem. A equipe supostamente usou um modelo básico pronto para uso e, em seguida, destilou nele o modelo Gemini 2.0 Flash Thinking Experimental do Google. O processo de destilação de IA envolve extrair as informações relevantes para concluir uma tarefa específica de um modelo de IA maior e transferi-las para um modelo menor.
Além do mais, na terça-feira, pesquisadores da Hugging Face lançaram um concorrente das ferramentas Deep Research da OpenAI e (também) Deep Research do Google Gemini , apelidado de Open Deep Research , que eles desenvolveram em apenas 24 horas. “Embora LLMs poderosos agora estejam disponíveis gratuitamente em código aberto, a OpenAI não revelou muito sobre a estrutura de agente subjacente à Deep Research”, escreveu Hugging Face em seu post de anúncio . “Então decidimos embarcar em uma missão de 24 horas para reproduzir seus resultados e abrir o código-fonte da estrutura necessária ao longo do caminho!” Segundo informações, custa cerca de US$ 20 em créditos de computação em nuvem e exigiria menos de 30 minutos para treinar.
O modelo da Hugging Face posteriormente obteve uma precisão de 55% no benchmark General AI Assistants (GAIA), que é usado para testar as capacidades dos sistemas de IA de agentes . Em comparação, a Deep Research da OpenAI obteve uma precisão entre 67 e 73%, dependendo das metodologias de resposta. É verdade que o modelo de 24 horas não funciona tão bem como a oferta da OpenAI, mas também não exigiu milhares de milhões de dólares e a capacidade de geração de energia de uma nação europeia de médio porte para treinar.
Esses esforços seguem as notícias de janeiro de que uma equipe da Universidade da Califórnia, Sky Computing Lab de Berkeley, conseguiu treinar seu modelo de raciocínio Sky T1 por cerca de US$ 450 em créditos de computação em nuvem. O modelo Sky-T1-32B-Preview da equipe provou ser igual ao lançamento inicial do modelo de raciocínio o1-preview. À medida que surgem mais concorrentes de código aberto ao domínio da indústria da OpenAI, a sua mera existência põe em questão se o plano da empresa de gastar meio bilião de dólares para construir centros de dados de IA e instalações de produção de energia é realmente a resposta.