OpenAI introduziu seu novo modelo de raciocínio o1 em sua API, desenrolando para desenvolvedores selecionados a partir de 17 de dezembro de 2024. O lançamento faz parte de uma atualização mais ampla que também inclui novos recursos que aprimoram a funcionalidade e a personalização para desenvolvedores. Para se qualificar para uso, os desenvolvedores devem gastar pelo menos US$ 1.000 e manter contas com mais de 30 dias.
“Hoje estamos introduzindo modelos mais capazes, novas ferramentas para personalização e atualizações que melhoram o desempenho, a flexibilidade e a economia para desenvolvedores que criam com IA.”
-OpenAI
OpenAI lança API o1 para desenvolvedores selecionados
O modelo o1 substitui o anterior o1-preview, ostentando recursos que permitem verificar os fatos de suas próprias respostas, uma vantagem não comumente encontrada em modelos de IA. Como compensação, o modelo de raciocínio tende a demorar mais para gerar respostas. O custo de processamento com o1 é significativo; cobra dos desenvolvedores US$ 15 por cada 750.000 palavras analisadas e US$ 60 pelo conteúdo gerado, marcando um aumento de seis vezes em comparação com o modelo sem raciocínio mais recente, GPT-4o.
O novo o1 foi projetado para melhorar as limitações anteriores, com a OpenAI afirmando que oferece “respostas mais abrangentes e precisas”, especialmente para questões técnicas relacionadas à programação e negócios. Inclui melhorias como um parâmetro de esforço de raciocínio que permite aos desenvolvedores controlar o tempo de processamento das consultas. Além disso, o modelo é mais adaptável que seu antecessor, suportando funções como mensagens do desenvolvedor para personalizar o comportamento do chatbot e permitindo saídas estruturadas usando um esquema JSON.
Para facilitar interações mais dinâmicas, a OpenAI melhorou seus recursos de chamada de funções, permitindo que o modelo utilize funções externas pré-escritas ao gerar respostas. Esta iteração da API supostamente requer 60% menos tokens para processamento em comparação com o1-visualizaçãoao mesmo tempo que alcança uma taxa de precisão mais alta – entre 25 a 35 pontos percentuais a mais em benchmarks como LiveBench e AIME.
A OpenAI também expandiu seus recursos relativos a interações em tempo real por meio de sua API Realtime, agora com suporte para WebRTC para comunicação de áudio mais suave. Esta adição visa simplificar a integração para os desenvolvedores, reduzindo significativamente a complexidade do código de aproximadamente 250 linhas para cerca de uma dúzia. Além disso, a OpenAI reduziu o custo dos tokens de áudio o1 em 60% e dos mini tokens em 90% para incentivar o uso entre os desenvolvedores.
“Nossa integração WebRTC foi projetada para permitir interações suaves e responsivas em condições do mundo real, mesmo com qualidade de rede variável”, escreveu OpenAI no blog. “Ele lida com codificação de áudio, streaming, supressão de ruído e controle de congestionamento.”
Outra atualização significativa inclui um novo método para ajustar modelos de IA, chamado otimização de preferência direta. Isso permite que os treinadores de modelos forneçam dois resultados e especifiquem uma preferência sem a necessidade de fornecer exemplos exatos de entrada/saída para cada cenário. A OpenAI afirma que este método aumenta a capacidade do modelo de se adaptar a várias peculiaridades no estilo de resposta, formatação e utilidade.
Os desenvolvedores de linguagens de programação como Go e Java agora podem acessar novos kits de desenvolvimento de software (SDKs) projetados para facilitar a integração de APIs. À medida que essas atualizações progridem, a OpenAI planeja expandir o acesso e aumentar os limites de taxa para mais desenvolvedores além da categoria inicial de nível 5.
Crédito da imagem em destaque: OpenAI