A indústria de inteligência artificial começa a direcionar seus esforços para um novo tipo de armazenamento voltado à fase de inferência.
A proposta envolve o uso de chips NAND em um SSD desenhado desde a base para esse tipo de carga. A SK hynix trabalha para apresentar essa solução até 2027, em parceria com a NVIDIA.
Com a evolução dos modelos de IA, o foco sai do treinamento e passa para a inferência, etapa em que os sistemas precisam responder rápido e processar grandes volumes de dados. Esse cenário exige mudanças na estrutura de hardware usada hoje.
Um exemplo disso é a decisão da NVIDIA de integrar memória GDDR7 de uso geral na GPU Rubin CPX durante a fase de prefill. Segundo informações publicadas pelo Chosun Biz, essa lógica também deve chegar ao armazenamento em NAND.
- Leia também: Parceria entre NVIDIA e OpenAI movimenta US$ 100 bilhões e gera debate sobre custos de IA
As duas empresas desenvolvem internamente um projeto chamado "Storage Next", descrito como um novo tipo de SSD para IA. A expectativa é que essa tecnologia mude o papel do NAND no mercado corporativo.
A SK hynix planeja apresentar um protótipo até o fim do próximo ano, com a meta de atingir cerca de 100 milhões de IOPS, um número muito acima do padrão visto em SSDs empresariais atuais.
A necessidade desse tipo de produto surge da forma como as cargas de trabalho em IA funcionam hoje. Os modelos dependem de acesso constante a grandes volumes de parâmetros, algo que não cabe apenas em HBM ou em memórias DRAM tradicionais.
A ideia do AI SSD é criar uma camada intermediária, funcionando como uma espécie de memória auxiliar ajustada para tarefas de inferência.
- Leia também: NVIDIA reúne executivos de Taiwan em jantar bilionário e mostra força na cadeia de suprimentos de IA
A colaboração entre SK hynix e NVIDIA busca melhorar tanto a taxa de transferência quanto o consumo de energia, usando novas arquiteturas de NAND e controladores mais avançados.
Mesmo com o otimismo em torno do projeto, o contexto do mercado preocupa. As linhas de fornecimento de NAND já sofrem pressão intensa por causa da demanda crescente de grandes provedores de nuvem e empresas focadas em IA.
Caso esse novo SSD para inteligência artificial ganhe escala comercial, o mercado pode enfrentar uma situação parecida com a vivida hoje no DRAM. A pressão sobre oferta e demanda tende a crescer, afetando preços e disponibilidade.
A infraestrutura necessária para sustentar a expansão da IA acaba cobrando um custo alto, desorganizando cadeias de suprimento e deixando pouco tempo de reação para fabricantes e consumidores.
Os contratos de DRAM já mostram aumentos frequentes, e tudo indica que os chips NAND podem seguir o mesmo caminho nos próximos períodos.








