A Samsung anunciou o início da produção em massa e das primeiras entregas comerciais da nova memória HBM4. A tecnologia chega ao mercado com velocidades que podem atingir até 13 Gbps e capacidade de até 48 GB por pilha.
A HBM4 será usada em chips de alto desempenho voltados para data centers, como as GPUs Vera Rubin, da NVIDIA, e a linha Instinct MI450, da AMD.
Esse novo padrão de memória não traz apenas mais velocidade, mas também mudanças na arquitetura e ganhos em eficiência energética e controle térmico.
A nova geração utiliza processo DRAM de classe 10 nanômetros de sexta geração, chamado 1c, junto com processo lógico de 4 nanômetros. Segundo a empresa, a produção começou com rendimento estável e sem necessidade de alterações no projeto original.
Em desempenho, a HBM4 opera com velocidade base de 11,7 Gbps por pino, acima do padrão de 8 Gbps do setor. Esse número é cerca de 46% maior que o padrão atual e 1,22 vez superior ao limite máximo de 9,6 Gbps da HBM3E.
Em determinadas configurações, a velocidade pode chegar a 13 Gbps, reduzindo gargalos de dados que tendem a crescer conforme modelos de inteligência artificial ficam maiores.
A largura de banda total por pilha chega a até 3,3 terabytes por segundo, número 2,7 vezes superior ao da geração anterior. A memória conta com 2.048 pinos de entrada e saída, o dobro da HBM3E, que trabalha com 1.024.
A Samsung vai disponibilizar versões com empilhamento de 12 camadas, com capacidades entre 24 GB e 36 GB. Também haverá versões com 16 camadas, que atingem até 48 GB.
Esse aumento de camadas ajuda a ampliar a capacidade sem ocupar mais espaço físico na placa. Para reduzir consumo de energia e controlar temperatura, a empresa adotou soluções internas de design de baixo consumo.
A HBM4 registra ganho de 40% em eficiência energética com uso de tecnologia TSV de baixa voltagem e ajustes na rede de distribuição de energia. Em comparação com a HBM3E, há melhora de 10% na resistência térmica e de 30% na dissipação de calor.
De acordo com a Samsung, a nova memória foi desenvolvida para atender às demandas de data centers voltados para inteligência artificial, ampliando o desempenho de GPUs e ajudando empresas a controlar custos operacionais.
A companhia informou que trabalha com grande capacidade de produção de DRAM e estrutura própria dedicada a memórias HBM, buscando atender à previsão de aumento na demanda por HBM4.

A integração entre as áreas de fundição e memória, dentro do modelo de Design Technology Co-Optimization (DTCO), contribui para manter padrões elevados de qualidade e rendimento.
A empresa também conta com experiência interna em empacotamento avançado, o que reduz prazos de fabricação. A Samsung planeja ampliar parcerias técnicas com fabricantes globais de GPUs e empresas de grande porte que desenvolvem chips personalizados para inteligência artificial.
A expectativa é que as vendas de memórias HBM mais que tripliquem em 2026 na comparação com 2025. Após o início da comercialização da HBM4, a empresa prevê iniciar o envio de amostras da HBM4E no segundo semestre de 2026.
Já as versões personalizadas de HBM devem começar a ser enviadas a clientes em 2027, de acordo com as especificações de cada projeto.








