A AMD está no caminho para se tornar uma força dominante no mercado de GPUs AI com seus planos de lançar uma versão atualizada do acelerador MI300 AI com memória HBM3e ainda este ano, seguido pelo Instinct MI400 em 2025.
Para quem não sabe, a memória HBM3e representa um salto significativo em termos de desempenho e capacidade. Este tipo de memória tem sido o principal investimento no segmento de IA.
Com uma taxa de dados superior a 9.2 Gbps e capacidade de 24GB em um cubo de 8 camadas, a HBM3e promete entregar mais de 1.2 TB/s de largura de banda, oferecendo uma eficiência energética notável e um aumento de desempenho por watt em comparação com a geração anterior, HBM2E.
O MI300 atualizado não só trará a nova memória HBM3e, mas também estará em posição de competir com o Blackwell B100 da NVIDIA, que será lançado em 2024.
A AMD promete que o MI300 oferecerá um valor superior, possivelmente a um custo mais acessível, tornando-o uma opção atraente para clientes em busca de soluções de IA eficientes e econômicas. Olhando para o futuro, o Instinct MI400 é talvez o produto mais esperado da AMD.
No entanto, os detalhes de desempenho ainda são um mistério, a AMD sinalizou que o MI400 virá com uma variedade de especificações, sugerindo uma linha diversificada de produtos que poderão atender a diferentes necessidades e orçamentos.
Enquanto a NVIDIA planeja lançar o B100 com tecnologia de 3nm em 2024, a AMD não fica atrás com seus planos ambiciosos para o MI400.
O B100 da NVIDIA promete ser mais de quatro vezes mais rápido que o H100 AI GPU, com um desempenho impressionante em inferência AI.
No entanto, a AMD pode ter a vantagem no custo, oferecendo uma alternativa mais acessível com o MI300 atualizado e o futuro MI400. A AMD ainda está buscando seu lugar no competitivo mercado de IA, dominado pela NVIDIA.
Apesar disso, com esses desenvolvimentos promissores, a AMD pode muito bem iluminar seu caminho para o sucesso e se tornar uma concorrente de peso no setor de IA.
Via: WccfTech