A indústria de semicondutores está testemunhando uma rivalidade fascinante, já que a Advanced Micro Devices (AMD) desafia o domínio da NVIDIA no mercado de aceleradores de IA. Com seu Instinct MI300X, a AMD está pronta para romper o status quo, oferecendo uma alternativa econômica e poderosa ao H100 da NVIDIA. O aumento na demanda por chips de IA, impulsionado pelo crescimento explosivo na adoção de IA e expansão de data center, intensifica ainda mais essa competição.
Na arena acelerada da tecnologia de chips de IA, A AMD está fazendo um progresso notável ao desafiar o domínio da NVIDIA. Embora a NVIDIA atualmente comande a maior parte do mercado, estimado em mais de 80%a AMD está ganhando força de forma constante, particularmente no setor de data center. Esse aumento é alimentado pela demanda robusta por seu chip MI300X AI, com vendas projetadas alcançando impressionantes US$ 4 bilhões, representando cerca de 15% da receita prevista da AMD.
Quando se trata de desempenho, os chips H100 da NVIDIA continuam amplamente reconhecidos por sua capacidade em cargas de trabalho de IA, especialmente no campo do treinamento. No entanto, o MI300X da AMD está provando seu valor em tarefas específicas de IA, particularmente inferência, onde alguns afirmam que ele supera até mesmo o carro-chefe H100 da NVIDIA.
Em termos de parcerias e adoção da indústria, a NVIDIA ostenta colaborações bem estabelecidas com grandes provedores de nuvem e desfruta de ampla aceitação em diversos setores. Por outro lado, A AMD está ativamente formando parceriascomo sua aliança com a TensorWave, para ampliar seu alcance e refinar sua tecnologia para tarefas centradas em IA.
A interação dinâmica entre esses dois gigantes promete um futuro emocionante para o mercado de chips de IA. Falei com Darrick Horton, CEO da TensorWavepara entender por que a empresa colocou todos os ovos da IA na cesta da AMD.
Instinct MI300X da AMD: uma revolução?
O MI300X ostenta uma capacidade de memória maior do que o H100, tornando-o vantajoso para tarefas específicas de IA, especialmente aquelas que envolvem grandes modelos de linguagem. Enquanto o H100 geralmente oferece maior poder de computação bruto, o MI300X mostra-se promissor em tarefas de inferência e tamanhos de lote maiores.
Embora os preços exatos não sejam públicos, o MI300X é supostamente mais barato, potencialmente oferecendo uma melhor relação preço-desempenho. No entanto, a plataforma CUDA da NVIDIA desfruta de uma adoção mais ampla e de um ecossistema de software mais maduro.
“Um dos recursos de destaque do MI300X é sua arquitetura de memória superior”, Horton me disse. “Com até 192 GB de memória HBM3 unificada, o MI300X supera significativamente o H100, permitindo o manuseio perfeito de modelos e conjuntos de dados maiores diretamente no acelerador. Isso reduz a necessidade de acessos de memória fora do chip, o que pode ser um gargalo em cargas de trabalho de IA, levando a melhor desempenho, capacidades de cache e menor latência.”
Outras considerações que levaram a TensorWave a fazer parceria com a AMD incluem eficiência energética e o ecossistema de software da AMD.
“O MI300X foi projetado com eficiência energética em mente, oferecendo desempenho excepcional por watt”, disse Horton. “Isso é particularmente importante à medida que as cargas de trabalho de IA aumentam, permitindo que as empresas alcancem alto desempenho sem aumentar os custos de energia. Essa eficiência é um fator crítico em implantações em larga escala, onde os custos operacionais podem ser uma preocupação significativa. A plataforma ROCm (Radeon Open Compute) da AMD continua a amadurecer e oferece suporte robusto para cargas de trabalho de IA e HPC. natureza de código aberto do ROCm fornece aos desenvolvedores flexibilidade e a capacidade de otimizar seus aplicativos para o MI300X, algo que é cada vez mais importante à medida que os modelos de IA se tornam mais sofisticados.”
A arquitetura híbrida do MI300X combina recursos de CPU e GPU, o que pode otimizar o desempenho em várias cargas de trabalho e escalar com eficiência em vários aceleradores. Tudo isso pinta um quadro de uma alternativa atraente à NVIDIA.
Claro, AMD e NVIDIA estão adotando abordagens altamente diferentes para construir sistemas de GPU de larga escala. A AMD favorece o padrão aberto PCIe 5.0, oferecendo compatibilidade mais ampla e custos potencialmente mais baixos, enquanto a NVIDIA depende de sua interconexão NVLink de alta largura de banda para melhor desempenho em certos cenários, mas com potenciais limitações de escalabilidade e custos mais altos.
Uma missão para democratizar o acesso à IA
O modelo de preços da TensorWave parece ter como objetivo democratizar o acesso à infraestrutura de IA de alto desempenho, e o menor custo relatado de aluguel de GPUs AMD por meio da plataforma pode contribuir para tornar as tecnologias avançadas de IA mais acessíveis a uma gama maior de organizações.
“Quando se trata de aquisição de GPU, está longe de ser um simples checkout de 1 clique”, disse Horton. “O processo geralmente é atrasado por atrasos de produção, tornando o tempo de envio imprevisível. Além disso, os custos iniciais podem ser proibitivos. Já construímos nossos data centers com milhares de GPUs MI300X, prontas para serem implantadas quando você quiser. Mas digamos que você consiga seu hardware. Agora, você se depara com o desafio de construir, gerenciar e manter esse hardware e toda a infraestrutura do data center. Este é um processo demorado e caro que nem todos estão equipados para lidar. Com nosso serviço de nuvem, essas preocupações desaparecem.”
Embora a NVIDIA atualmente detenha uma posição dominante, a abordagem inovadora do Instinct MI300X da AMD e do TensorWave está pronta para revolucionar o mercado de aceleradores de IA.
“A NVIDIA tem sido a força dominante no mercado de aceleradores de IA, mas acreditamos que é hora de isso mudar”, disse Horton. “Estamos todos dando opcionalidade ao mercado. Queremos que os construtores se libertem do bloqueio do fornecedor e parem de depender de ferramentas não open-source, onde estão à mercê do provedor. Acreditamos na escolha. Acreditamos na opcionalidade open-source. Acreditamos na democratização da computação. Esses princípios foram centrais quando construímos e focamos nossa nuvem em torno dos aceleradores AMD MI300X.”
A TensorWave acredita que isso é importante, pois mais PMEs e grandes empresas estão começando a aproveitar as ferramentas de IA da mesma forma que as corporações já fazem.
“Pense em empresas de contabilidade, escritórios de advocacia e instituições de pesquisa”, disse Horton. “Eles têm grandes quantidades de dados históricos. Se eles puderem construir ferramentas de IA que aprendam com esses conjuntos de dados, o potencial para resultados comerciais positivos é enorme. No entanto, para conseguir isso, você precisará processar grandes conjuntos de dados (mais de 250.000 tokens), o que exigirá memória e desempenho substanciais do hardware. E isso não é apenas teórico — as empresas estão trabalhando ativamente em soluções de longo contexto agora.”
Uma aposta ousada em um jogo de apostas altas
A TensorWave também acredita que a AMD se tornará o novo padrão à medida que os LLMs atingirem novos patamares, o que é um grande motivador para que ela coloque todos os seus chips na AMD (metáfora do blackjack intencional).
“À medida que os modelos de IA continuam a crescer e a consumir mais memória, as soluções da NVIDIA lutam para competir com o MI300X em termos de preço-desempenho. Veja o modelo Llama 3.1 405B da Meta, por exemplo. Esse modelo pode ser executado em menos de um nó MI300X completo (8 GPUs), enquanto requer aproximadamente dois nós com o H100B. Estamos apostando alto que a comunidade de IA está pronta para algo melhor — mais rápido, mais econômico, de código aberto e prontamente disponível.
Redobrando seu investimento na AMD, a TensorWave está olhando para o futuro, desenvolvendo novos recursos para democratizar ainda mais o acesso ao poder de computação.
“Estamos desenvolvendo mecanismos de cache escaláveis que aumentam drasticamente a eficiência do manuseio de contextos longos”, disse Horton. “Isso permite que os usuários interajam com chats e documentos maiores com latências significativamente reduzidas, fornecendo experiências mais suaves e responsivas, mesmo nos aplicativos de IA mais exigentes.”
Atualmente em versão beta, o TensorWave está projetando lançá-lo para seus usuários no quarto trimestre de 2024.
As vantagens técnicas do MI300X, combinadas com o foco da TensorWave em democratização e custo-benefício, apresentam uma alternativa atraente para empresas que buscam soluções de IA de alto desempenho.
Aposte em um futuro mais brilhante
O “see, raise, and call” entre AMD e NVIDIA, sem dúvida, impulsionará mais avanços na tecnologia de GPU e aplicações de IA em toda a indústria. À medida que a demanda por IA continua a crescer, ambas as empresas desempenharão papéis cruciais na formação do futuro desta tecnologia transformadora.
Se a AMD pode finalmente superar a NVIDIA ainda está para ser visto. No entanto, sua presença no mercado promove competição saudável, inovação e, em última análise, beneficia todo o ecossistema de IA. A batalha pela supremacia da IA está longe de terminar, e o mundo assiste com expectativa enquanto esses dois titãs da tecnologia continuam a expandir os limites do que é possível.