A Samsung anunciou que sua memória HBM4 já começou a ser distribuída de forma comercial e agora faz parte da próxima geração de chips de inteligência artificial da NVIDIA.
Com isso, a empresa sul-coreana volta a ganhar espaço no mercado de memórias HBM e passa a disputar de forma mais direta com concorrentes como SK hynix e Micron.
De acordo com a fabricante, a HBM4 é produzida com DRAM de sexta geração no processo 1c e utiliza um chip lógico em 4 nanômetros, ambos desenvolvidos internamente.
A empresa afirma que essa nova geração já está sendo enviada comercialmente e que atinge as maiores velocidades por pino da indústria até o momento.
A Samsung informa que a HBM4 alcança 11,7 Gbps por pino, número 46% superior aos 8 Gbps registrados anteriormente. Em testes com overclock, a memória chegou a 13 Gbps.
Esse desempenho atende a requisitos importantes da NVIDIA para uso em sua nova arquitetura de IA chamada Vera Rubin. Atualmente, as soluções em envio utilizam pilhas com 12 camadas.
A empresa também trabalha em uma versão com 16 camadas, que poderá chegar a 48 GB de capacidade por módulo. Esse aumento de capacidade e de largura de banda é visto como peça central para aplicações de inteligência artificial, que exigem respostas rápidas e baixa latência.
A Samsung não citou oficialmente qual cliente está utilizando a HBM4, a única empresa mencionada como parceira de infraestrutura ligada a essa tecnologia é a NVIDIA, dentro da arquitetura Vera Rubin.
Nessa geração, a fabricante de GPUs concentra esforços em reduzir o tempo de resposta e ampliar o desempenho em tarefas de IA, o que coloca a memória em posição estratégica.
A Samsung também projeta que sua receita com memórias HBM deve triplicar em 2026 na comparação com 2025. Além disso, a companhia planeja lançar a HBM4E no segundo semestre de 2026.
Mesmo ainda atrás de concorrentes em volume de adoção, a empresa indica que aposta na HBM4 como ponto central para ampliar sua presença nesse mercado.








