CPUs ou GPUs ainda são usadas, mas a IA agentic exige grandes volumes de memória para funcionar. Essa demanda cresce rápido e atinge níveis mais altos enquanto as limitações na produção de DRAM continuam.
CPUs com IA podem chegar a 400 GB de memória e pressionar ainda mais o mercado
Fabricantes de memória estão lucrando, mas não conseguem atender toda a procura. Há relatos de expansão rápida nas fábricas, mas muitas ainda não começaram a operar.
A Samsung já indicou que 2027 pode ser mais difícil para o setor de DRAM do que 2026. Com isso, o cenário segue com falta de memória enquanto o crescimento da IA continua.
Mais custos para clientes e ganhos para fabricantes
Com o avanço da IA agentic, o foco passa a incluir mais as CPUs. As GPUs ainda são importantes e continuam em alta, mas a proporção em data centers caiu de 8:1 para 4:1. A tendência é chegar perto de 1:1, já que esses modelos exigem mais capacidade de processamento geral.
- Leia tambem: Samsung quebra a barreira dos 10nm na DRAM com nova estrutura 4F que aumenta a densidade em até 50%
Ao mesmo tempo, a IA agentic continua dependendo de muita memória. Tecnologias de compressão ajudam a reduzir parte do uso, como no cache KV, mas a demanda segue subindo. Com isso, o segmento de CPUs deve crescer bastante em capacidade de memória.
Segundo fontes do setor, divulgadas pelo SE Daily, fabricantes já planejam CPUs com 300 GB a 400 GB de memória. Hoje, os chips trabalham com algo entre 96 GB e 256 GB de DRAM.
O relatório não detalha o tipo de memória, já que plataformas de CPU já suportam até 4 TB ou 8 TB no total com módulos DIMM. Tecnologias como MRDIMM devem aumentar capacidade e velocidade, mas ainda funcionam como memória separada.
"A disputa por capacidade de memória está saindo das GPUs e chegando às CPUs, com crescimento rápido. O chip de próxima geração da Nvidia, chamado 'Vera Rubin', terá 288 GB com oito módulos HBM.
Já a GPU MI400 da AMD pode chegar a 432 GB. O chip próprio mais recente do Google, a TPU de 8ª geração (TPU 8i), também deve ter 288 GB de HBM.
Além disso, CPUs como Xeon, da Intel, e Epyc, da AMD, devem usar DDR5 de alta capacidade, chegando a 400 GB, o que mantém a pressão sobre o mercado de memória." (tradução livre)
Existe a possibilidade de CPUs com memória HBM integrada ou novos padrões como HBF/ZAM, que ainda estão em desenvolvimento. A AMD já lançou um modelo EPYC com HBM, então esse tipo de solução não é novo.
CPUs podem ter mais memória que GPUs
Outra possibilidade é o aumento da capacidade por módulo DIMM. Um único módulo de 400 GB já superaria GPUs atuais, como as que têm 288 GB de HBM3E. Novas gerações devem usar padrões como HBM4, com mais capacidade.
Esse aumento pode agravar a falta de memória. Com chips de DRAM mais densos sendo prioridade, fabricantes podem deixar de lado produtos mais simples.
A Samsung já fez isso ao encerrar a produção de LPDDR4 e focar em LPDDR5, que tem maior retorno financeiro. O mesmo pode acontecer com DDR5, que tem várias versões para usos diferentes.
Com a IA exigindo chips mais avançados, menos linhas de produção devem ser usadas para modelos básicos, o que pode causar mais escassez e preços mais altos fora do setor de IA.
No geral, o avanço da IA agentic tende a aumentar ainda mais a pressão sobre a produção de memória nos próximos anos, afetando preços e disponibilidade em diferentes segmentos.
