OpenAI abre acesso do desenvolvedor ao modelo de raciocínio o1 completo

O logotipo openAI o1
OpenAI

No nono dia da campanha de imprensa do feriado da OpenAI, a empresa anunciou que está lançando a versão completa de seu modelo de raciocínio o1 para desenvolvedores selecionados por meio da API da empresa. Até as notícias de terça-feira, os desenvolvedores só podiam acessar o modelo o1-preview, menos capaz.

De acordo com a empresa, o modelo o1 completo começará a ser implementado para pessoas na categoria de desenvolvedor “Tier 5” da OpenAI. São usuários que têm conta há mais de um mês e que gastam pelo menos US$ 1.000 com a empresa. O novo serviço é especialmente caro para os usuários (devido aos recursos computacionais adicionais necessários para o1), custando US$ 15 para cada (aproximadamente) 750.000 palavras analisadas e US$ 60 para cada (aproximadamente) 750.000 palavras geradas pelo modelo. Isso representa três a quatro vezes o custo de realizar as mesmas tarefas com o GPT-4o .

Com esses preços, a OpenAI certificou-se de melhorar os recursos completos do modelo em relação à iteração de visualização. O novo modelo o1 é mais personalizável que seu antecessor (seu novo parâmetro “reasoning_effort” determina por quanto tempo a IA pondera uma determinada questão) e oferece chamada de função, mensagens de desenvolvedor e análise de imagem, todos ausentes na visualização o1.

A empresa também anunciou que está incorporando seus modelos GPT-4o e 4o-mini em sua API Realtime, que é construída para aplicações de IA vocal de baixa latência (como Advanced Voice Mode ). A API agora também oferece suporte a WebRTC, o padrão aberto da indústria para o desenvolvimento de aplicativos de IA vocal em navegadores da web, então prepare-se para mais sites tentando falar com você em 2025.

“Nossa integração WebRTC foi projetada para permitir interações suaves e responsivas em condições do mundo real, mesmo com qualidade de rede variável”, escreveu OpenAI em seu anúncio. “Ele lida com codificação de áudio, streaming, supressão de ruído e controle de congestionamento.”

Até agora, a OpenAI revelou, como parte do evento de transmissão ao vivo, a versão completa do o1 (além do anúncio de terça-feira), lançou seu modelo de geração de vídeo Sora , estreou seu novo recurso Projetos e forneceu várias atualizações para seu Canvas , Search e recursos do modo de voz avançado .

Faltando apenas três dias para o final do evento, o que a OpenAI mostrará a seguir? Teremos que esperar para ver.