A indústria de inteligência artificial começa a direcionar seus esforços para um novo tipo de armazenamento voltado à fase de inferência.
A proposta envolve o uso de chips NAND em um SSD desenhado desde a base para esse tipo de carga. A SK hynix trabalha para apresentar essa solução até 2027, em parceria com a NVIDIA.
Com a evolução dos modelos de IA, o foco sai do treinamento e passa para a inferência, etapa em que os sistemas precisam responder rápido e processar grandes volumes de dados. Esse cenário exige mudanças na estrutura de hardware usada hoje.
Um exemplo disso é a decisão da NVIDIA de integrar memória GDDR7 de uso geral na GPU Rubin CPX durante a fase de prefill. Segundo informações publicadas pelo Chosun Biz, essa lógica também deve chegar ao armazenamento em NAND.
As duas empresas desenvolvem internamente um projeto chamado "Storage Next", descrito como um novo tipo de SSD para IA. A expectativa é que essa tecnologia mude o papel do NAND no mercado corporativo.
A SK hynix planeja apresentar um protótipo até o fim do próximo ano, com a meta de atingir cerca de 100 milhões de IOPS, um número muito acima do padrão visto em SSDs empresariais atuais.
A necessidade desse tipo de produto surge da forma como as cargas de trabalho em IA funcionam hoje. Os modelos dependem de acesso constante a grandes volumes de parâmetros, algo que não cabe apenas em HBM ou em memórias DRAM tradicionais.
A ideia do AI SSD é criar uma camada intermediária, funcionando como uma espécie de memória auxiliar ajustada para tarefas de inferência.
- Leia também: NVIDIA encerra suporte a GPUs Maxwell, Pascal e Volta, incluindo a lendária GTX 1080 Ti
A colaboração entre SK hynix e NVIDIA busca melhorar tanto a taxa de transferência quanto o consumo de energia, usando novas arquiteturas de NAND e controladores mais avançados.
Mesmo com o otimismo em torno do projeto, o contexto do mercado preocupa. As linhas de fornecimento de NAND já sofrem pressão intensa por causa da demanda crescente de grandes provedores de nuvem e empresas focadas em IA.
Caso esse novo SSD para inteligência artificial ganhe escala comercial, o mercado pode enfrentar uma situação parecida com a vivida hoje no DRAM. A pressão sobre oferta e demanda tende a crescer, afetando preços e disponibilidade.
A infraestrutura necessária para sustentar a expansão da IA acaba cobrando um custo alto, desorganizando cadeias de suprimento e deixando pouco tempo de reação para fabricantes e consumidores.
- Leia também: NVIDIA pode ser a única cliente da TSMC no processo A16, usado em GPUs da linha Feynman
Os contratos de DRAM já mostram aumentos frequentes, e tudo indica que os chips NAND podem seguir o mesmo caminho nos próximos períodos.








