Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
Subscribe
No Result
View All Result
Dataconomy PT
No Result
View All Result

Este modelo AI de US $ 6 chamado S1 acabou de desafiar o Open’s O1

byKerem Gülen
6 Fevereiro 2025
in Research
Home Research
Share on FacebookShare on Twitter

Um novo modelo de IA chamado S1, revelado Em um artigo divulgado em 2 de fevereiro, está atraindo atenção por seu desempenho econômico que rivaliza com o O1 Open, alcançando capacidades significativas a um custo de treinamento de apenas US $ 6.

Modelo de IA S1 surge como alternativa econômica ao Open’s O1’s O1

O modelo S1 atinge os níveis de desempenho próximos à última geração, utilizando infraestrutura mais simples. Ele aprimora os grandes modelos de linguagem (LLMs) durante a inferência, estendendo o “tempo de pensamento” através de intervenções, como substituir tags de terminais por prompts como “Espera”.

Treinado em um conjunto de dados destilado composto por 1.000 exemplos de alta qualidade da QWEN2.5, desenvolvida pela Alibaba Cloud, a S1 empregou 16 GPUs NVIDIA H100, com uma única corrida de treinamento com aproximadamente 26 minutos. O custo computacional total foi de cerca de US $ 6, permitindo experimentação mais frequente, mesmo para equipes com recursos limitados.

Enquanto organizações maiores como OpenAI e Antrópica dependem de uma extensa infraestrutura, inovações como S1 demonstram o potencial de progresso dentro de orçamentos restritos. No entanto, a introdução do S1 provocou preocupações sobre a “distalagem”, uma prática em que os modelos utilizam conjuntos de dados destilados de outros sistemas de IA, levantando questões éticas e legais que acenderam as discussões do setor.

Nos testes que medem as habilidades de matemática e codificação, o S1 tem um desempenho comparativamente aos principais modelos de raciocínio, como o Open O1 e o Deepseek R1. O modelo S1, incluindo seus dados e código de treinamento, está acessível no GitHub.

Este modelo AI de US $ 6 chamado S1 acabou de desafiar o Open's O1
(Crédito da imagem)

A equipe por trás do S1 começou com um modelo básico pronta para uso e o refinou através da destilação, um método para extrair recursos de raciocínio de um modelo de IA existente usando suas respostas. Especificamente, S1 é destilado do Google’s Gemini 2.0 Flash Thinking Experimental, representando uma abordagem semelhante usada pelos pesquisadores de Berkeley para desenvolver um modelo de raciocínio de IA por aproximadamente US $ 450 no mês passado.

A capacidade de as equipes de pesquisa menores inovarem no espaço da IA ​​sem apoio financeiro substancial apresenta excitação e desafios. Surge a questão sobre a sustentabilidade das vantagens proprietárias em uma paisagem onde modelos caros podem ser replicados de maneira acessível.

O OpenAI expressou insatisfação, alegando que a Deepseek colheu dados incorretamente de sua API para fins de destilação do modelo. Os pesquisadores pretendiam criar uma abordagem direta que atinge o desempenho robusto do raciocínio e o “escala no tempo de teste”, permitindo que os modelos de IA se envolvam em análises mais profundas antes de responder.

A pesquisa S1 indica que os modelos de raciocínio podem ser destilados usando um conjunto de dados relativamente pequeno por meio de um método chamado ajuste fino supervisionado (SFT), que instrui o modelo de IA a imitar certos comportamentos dentro de um conjunto de dados. Esse método tende a ser mais econômico do que a abordagem de aprendizado de reforço em larga escala utilizada pela Deepseek para seu modelo R1.

O Google fornece acesso gratuito ao Gemini 2.0 Flash Thinking Experimental, embora o uso esteja sujeito a limites diários de taxas e seus termos proibem modelos de engenharia reversa para criar serviços concorrentes. O processo de treinamento S1 envolveu a curadoria de um conjunto de dados de 1.000 perguntas e respostas personalizadas, juntamente com os processos de raciocínio derivados do Gemini 2.0.

Após o treinamento, que levou menos de 30 minutos, o S1 demonstrou forte desempenho em benchmarks específicos de IA. Niklas Muennighff, pesquisador de Stanford envolvido no projeto, indicou que os recursos de computação necessários poderiam ser alugados hoje por cerca de US $ 20.

Os pesquisadores também implementaram uma técnica para aprimorar a precisão do S1, instruindo -a a “esperar” durante o raciocínio, estendendo assim seu tempo de pensamento e alcançando respostas ligeiramente aprimoradas.


Crédito da imagem em destaque: Google DeepMind/Unsplash

Tags: AiO1openAIS1

Related Posts

As ferramentas de pesquisa de IA podem estar criando mais problemas do que resolvem

As ferramentas de pesquisa de IA podem estar criando mais problemas do que resolvem

14 Maio 2025
O seu parceiro de IA generativo super útil está tornando seu trabalho entediante?

O seu parceiro de IA generativo super útil está tornando seu trabalho entediante?

14 Maio 2025
Adele da Microsoft quer dar um perfil cognitivo à sua IA

Adele da Microsoft quer dar um perfil cognitivo à sua IA

14 Maio 2025
O artigo de pesquisa da Apple revela Matrix3D para geração de conteúdo 3D

O artigo de pesquisa da Apple revela Matrix3D para geração de conteúdo 3D

14 Maio 2025
Pesquisa: o padrão -ouro para avaliação de Genai

Pesquisa: o padrão -ouro para avaliação de Genai

12 Maio 2025
Ai finalmente resolve o quebra -cabeça mais difícil da biologia

Ai finalmente resolve o quebra -cabeça mais difícil da biologia

6 Maio 2025

Recent Posts

  • O impacto dos tecidos inteligentes no desempenho das roupas táticas
  • Databricks Aposta grande no servidor sem servidor com sua aquisição de neon de US $ 1 bilhão
  • AlphaEvolve: Como a nova IA do Google visa a verdade com a autocorreção
  • Tiktok está implementando textos alt gerados pela IA para melhor acessibilidade
  • Trump força a Apple a repensar sua estratégia de iPhone da Índia

Recent Comments

Nenhum comentário para mostrar.
Dataconomy PT

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.