A Akamai Technology lança inferência em nuvem da Akamai, um novo serviço em nuvem que aprimora a eficiência das tarefas de inferência de IA. Ele oferece taxa de transferência aprimorada, latência reduzida e custos mais baixos do que a infraestrutura tradicional de hiperescala.
A inferência em nuvem do Akamai é executada na Akamai Cloud, a plataforma mais distribuída do mundo. Essa nova tecnologia foi projetada para abordar as limitações dos modelos de nuvem centralizados, processando os dados de IA mais próximos do usuário e dos dispositivos.
Adam Karon, diretor de operações e gerente geral do Cloud Technology Group da Akamai, destacou o desafio de distribuir dados de IA com eficiência. “Aproximar os dados da IA dos usuários e dispositivos, e é onde as nuvens herdadas lutam”, afirmou Karon.
A inferência de IA no Akamai Cloud permite que os engenheiros e desenvolvedores da plataforma construam e executem aplicativos de IA mais próximos dos usuários finais. Esta nova solução oferece 3x melhor taxa de transferência e redução de até 2,5x na latência.
As novas ferramentas capacitam as empresas a economizar até 86% na inferência de IA e cargas de trabalho de IA agênticas em comparação com a infraestrutura tradicional de hiperscaler.
Os principais recursos da inferência em nuvem de Akamai incluem:
- Calcular: A Akamai Cloud fornece opções de computação versátil, como CPUs para inferência de ajuste fino, GPUs para computação acelerada e VPUs ASIC. Etc para enfrentar uma gama diversificada de desafios de inferência de IA.
- Gerenciamento de dados: O Akamai se integra a vastos dados para acesso a dados em tempo real e fornece armazenamento escalável de objetos para gerenciar conjuntos de dados de IA. A empresa também trabalha com fornecedores de banco de dados de vetores, como Aiven e Milvus, para permitir a geração de recuperação upmentada por recuperação.
- Recipiente: O Akamai integra a contêinerização para melhorar a resiliência do aplicativo e a portabilidade híbrida/multicloud. O Akamai oferece a inferência de IA mais rápida, mais barata e mais segura com o Kubernetes, apoiado pelo Linode Kubernetes Engine (LKE) -Enterprise. O novo serviço permite a implantação rápida de plataformas AI-Ready, incluindo Kserve, Kubeflow e Spinkube.
- Compute de borda: A inferência da Akamai AI inclui recursos WebAssembly (WASM). Os desenvolvedores criam aplicativos movidos a IA no limite, permitindo soluções sensíveis à latência.
A arquitetura escalável e distribuída da Akamai Cloud permite que os recursos de computação estejam disponíveis globalmente – da nuvem a ponta – enquanto acelera o desempenho do aplicativo e o aumento da escalabilidade. A plataforma abrange 4.200 pontos de presença em 1.200 redes em mais de 130 países.
Polyedra acabou de tornar o segredos honestos da IA
O Akasm revela a mudança do treinamento de grandes modelos de idiomas (LLMS) para a inferência da IA, enfatizando a necessidade de soluções práticas de IA. Os LLMs são eficazes para tarefas de uso geral, mas geralmente têm altos custos e requisitos demorados.
Em vez de investir pesadamente no LLMS, as empresas estão se movendo para os modelos de IA mais leves. Estes são otimizados para problemas de negócios específicos, oferecem um melhor retorno do investimento hoje.
A Akamai Cloud Inference suporta o processamento de dados de IA mais próximo de onde são gerados, resolvendo as demandas por soluções de IA mais distribuídas.
A nova oferta da Akamai representa uma jogada notável em direção à IA descentralizada, resolvendo o enigma clássico da computação em nuvem de distância. Por que? Porque a latência reduzida se traduz diretamente em economia real e imediata e uma melhor experiência do usuário, o que é uma combinação difícil para os concorrentes vencer.
Um recurso particularmente experiente é a ênfase na contêiner, garantir que a implantação dos aplicativos de IA permaneça muito mais fácil e mais segura do que as configurações tradicionais. O uso do Linode Kubernetes Engine (LKE) -Enterprise sublinha o compromisso da Akamai em oferecer ferramentas modernas e eficientes adaptadas aos desafios técnicos de hoje.