O laboratório chinês de IA DeepSeek anunciou o lançamento de seu modelo DeepSeek-R1-Lite-Preview, que afirma rivalizar com o modelo o1 da OpenAI. O novo modelo oferece uma característica única: transparência no seu processo de raciocínio, permitindo que os usuários vejam o passo a passo dos métodos de resolução de problemas. Este anúncio ocorre dois meses depois que a OpenAI lançou seu o1-visualização modelo, destacando uma competição crescente no espaço de raciocínio da IA.
DeepSeek lança modelo de raciocínio para rivalizar com OpenAI
DeepSeek-R1-Lite-Preview pode ser acessado através de um chatbot da web, Bate-papo DeepSeekonde os usuários podem interagir com o modelo, limitado a 50 mensagens por dia. Embora os benchmarks detalhados e um cartão de modelo ainda não tenham sido divulgados, as primeiras avaliações indicam que o modelo de raciocínio apresenta desempenho comparável aos benchmarks da OpenAI em tarefas AIME e MATH. DeepSeek afirma que atinge uma precisão de última geração de 91,6% no benchmark MATH.
A introdução do DeepSeek-R1 ocorre no momento em que as leis de escala tradicionais em IA, que sugerem que o aumento dos dados e do poder computacional melhorarão o desempenho, começam a mostrar retornos decrescentes. Em resposta, as empresas procuram novas abordagens, como os modelos de raciocínio subjacentes, como o DeepSeek-R1. Ao contrário dos modelos tradicionais, os modelos de raciocínio estendem o seu processamento computacional durante a inferência para melhorar as capacidades de tomada de decisão.
Apesar de suas características promissoras, o novo modelo também segue protocolos rígidos de censura comuns na tecnologia chinesa de IA. As observações confirmaram que o DeepSeek-R1 evita tópicos políticos sensíveis, como perguntas sobre Xi Jinping ou Taiwan. Os usuários relataram tentativas bem-sucedidas de contornar essas restrições, permitindo que o modelo fornecesse conteúdo não filtrado em determinados cenários. Este aspecto levanta questões constantes sobre o equilíbrio entre funcionalidade e conformidade regulamentar para modelos de IA desenvolvidos em regiões com supervisão governamental rigorosa.
DeepSeek afirma que seu modelo DeepSeek-R1 – ou mais especificamente, o DeepSeek-R1-Lite-Preview – corresponde ao modelo o1-preview da OpenAI em dois benchmarks de IA proeminentes, AIME e MATH. AIME avalia o desempenho de um modelo usando outros modelos de IA, enquanto MATH testa a resolução de problemas com uma coleção de problemas de palavras. Contudo, o modelo tem suas deficiências. Alguns usuários no X apontou que DeepSeek-R1, como o1, enfrenta desafios com jogo da velha e outras tarefas baseadas em lógica.
Olhando para o futuro, a DeepSeek planeja lançar versões de código aberto de seus modelos R1 e ampliar o acesso por meio de APIs, continuando seu compromisso com a comunidade de IA de código aberto. A empresa é apoiada pela High-Flyer Capital Management, que segue uma estratégia de integração de IA nas decisões comerciais. As operações da High-Flyer incluem investimentos substanciais em infraestrutura de hardware, ostentando clusters de GPUs Nvidia A100 para treinamento de modelos.
Crédito da imagem em destaque: DeepSeek