A Deepseek utilizará os chips da Huawei AI em vez dos NVIDIA’s para treinar pequenos modelos de IA, pois a empresa busca diminuir sua dependência dos processadores da NVIDIA. A mudança ocorre quando a Deepseek está testando novos aceleradores de GPU da AI de vários fabricantes.
De acordo com, a Deepseek planeja adotar chips da Huawei para seus modelos menores de IA. Esta iniciativa visa reduzir a dependência da empresa na NVIDIA. A Deepseek está atualmente avaliando novos aceleradores de GPU da AI da Huawei, Baidu e Cambricon para treinar modelos menores que sua versão AI R2.
A Deepseek pretende continuar usando os processadores da NVIDIA para o seu Modelo de Idiomas de grande porte R2 AI (LLM), considerando -os uma fonte confiável para seus produtos atuais. A empresa estava anteriormente considerando o processador Ascend para seu modelo de raciocínio de IA de próxima geração, mas poderia adiar esse plano.
Deepseek encontrou desafios com o próximo modelo R2 AI. Apesar do suporte de engenharia da Huawei, as questões de desenvolvimento levaram ao adiamento do lançamento do modelo R2 AI. A estréia do modelo R2 AI agora é esperada ainda este ano.
O Deepseek confia nos chipsets da NVIDIA para construir o modelo de raciocínio mais poderoso da R2 AI. Simultaneamente, ele usará processadores Huawei Ascend para treinamento e refino iterações menores do modelo R2. A empresa não especificou uma data de estréia para plataformas de consumidores que utilizam a tecnologia LLM de chips Huawei AI.
Um porta-voz da NVIDIA declarou: “A competição chegou inegavelmente. O mundo escolherá a melhor pilha de tecnologia para executar os aplicativos mais populares e modelos de código aberto. Para vencer a corrida da IA, a indústria dos EUA deve ganhar o apoio de desenvolvedores em todos os lugares, incluindo a China”.





