
A NVIDIA e a SK hynix estão trabalhando juntas no desenvolvimento de um novo tipo de SSD voltado especificamente para cargas de trabalho de inferência em inteligência artificial, um movimento que pode redesenhar o papel do armazenamento em Data Centers e passar de alerta laranja para vermelho no mercado global de memória NAND.
O projeto, conhecido internamente como Storage Next, busca obter um salto expressivo de desempenho em operações de entrada e saída, com números que superam em larga escala os SSDs corporativos atuais.
A iniciativa acontece em um momento delicado em que o foco da indústria de IA começa a migrar do treinamento de modelos para a inferência em larga escala, exigindo arquiteturas capazes de lidar com volumes massivos de parâmetros, latência reduzida e eficiência energética mais rigorosa.
O que é o “AI SSD” e por que ele existe?
Segundo informações divulgadas pela imprensa sul-coreana, o chamado AI SSD é um dispositivo de armazenamento baseado em NAND Flash, mas projetado desde a origem para atender padrões de acesso típicos de inferência de grandes modelos.
Diferentemente dos SSDs tradicionais, que priorizam uso geral em servidores e sistemas corporativos, essa nova categoria busca atuar como uma espécie de camada intermediária entre memória e armazenamento.
A meta técnica mais citada é ambiciosa: até 100 milhões de IOPS, um patamar cerca de dez vezes superior ao observado em SSDs enterprise amplamente utilizados hoje.
O desempenho seria alcançado por meio de uma combinação de controladores dedicados, paralelismo extremo e integração mais próxima com aceleradores de IA, especialmente GPUs da NVIDIA.
Inferência muda a lógica da infraestrutura de IA
Durante anos, a discussão sobre infraestrutura de IA esteve centrada em GPUs, HBM e DRAM. Mas com a popularização de modelos cada vez maiores e o crescimento do uso comercial de inferência, esse equilíbrio começa a mudar.
Em aplicações reais, modelos precisam acessar continuamente grandes volumes de dados e parâmetros, algo que ultrapassa a capacidade econômica e física das memórias tradicionais.
É a partir desse panorama que o AI SSD está sendo concebido: ele funcionaria como um nível de pseudo-memória, mais lento que DRAM ou HBM, porém muito mais denso, escalável e eficiente do ponto de vista energético. A proposta é reduzir gargalos de I/O e diminuir o tempo que GPUs passam ociosas aguardando dados.
Colaboração estratégica entre NVIDIA e SK hynix
A parceria entre NVIDIA e SK hynix tem raízes fortes: fabricante sul-coreana já é uma das principais fornecedoras globais de DRAM, NAND e HBM, enquanto a NVIDIA domina o ecossistema de hardware e software para IA.
Relatórios indicam que a SK hynix deve apresentar um protótipo funcional até o fim de 2026, com expectativa de amadurecimento comercial por volta de 2027.
Estão sendo avaliadas arquiteturas de NAND e controladores capazes de atender diretamente às exigências de inferência de IA em escala de Data Center
Pressão crescente sobre o fornecimento de NAND
O principal contra desse avanço é a preocupação concreta dos insumos que afetam a cadeia de disponibilidade de NAND Flash. A demanda por memória já está sob forte tensão devido à expansão dos centros de dados , serviços em nuvem e aplicações de IA.
Caso os AI SSDs se tornem padrão em ambientes de inferência, o consumo de NAND pode acelerar de forma semelhante ao que ocorreu com a DRAM e a HBM nos últimos anos, alterando a balança de oferta e demanda para o consumidor finald e eletrônicos.
Dados recentes do setor indicam que grande parte da capacidade produtiva da SK hynix para DRAM, NAND e HBM já está comprometida até 2026, o que contribui para a alta nos preços contratuais.
Analistas apontam que o NAND pode enfrentar um ciclo de escassez mais severo, afetando desde fabricantes de SSDs convencionais até o mercado consumidor.
Como isso pode pesar no seu bolso
A intensa demanda por chips de memória já está provocando efeitos tangíveis no mercado de tecnologia voltado ao consumidor.
Os preços de memória DRAM e NAND Flash, que compõem a maior parte do custo de módulos de RAM e SSDs, subiram de forma significativa nos últimos meses, uma tendência que analistas associam diretamente à menor disponibilidade desses componentes nas linhas de produção tradicionais.
Relatórios recentes da TrendForce apontam que contratos de NAND podem ter tido aumentos acumulados em duzentos por cento ou mais desde o início de 2025, com grande parte dessa elevação ocorrendo em um curto espaço de tempo à medida que fornecedores priorizam clientes corporativos e data centers.
Isso tem efeitos práticos para quem pretende montar ou atualizar um computador, trocar um SSD ou comprar um laptop novo.
Estudos indicam que fabricantes de PCs e notebooks já estão ajustando seus preços para refletir o maior custo de memória e armazenamento nos produtos finais: aumentos de preços em componentes, configurações base mais modestas e até revisões de portfólio estão sendo discutidos para equilibrar margens.
Consumidores podem notar, assim, que dispositivos com especificações mais altas (maior RAM ou maior capacidade de armazenamento SSD) estão ficando mais caros ou disponíveis em menor quantidade, e que a tradicional queda de preços ao longo do tempo pode ficar atrasada por vários trimestres, estendendo a tendência de valores elevados até pelo menos 2027.
Leia também:
- China pode fazer o maior investimento público em chips da história: US$ 70 bilhões
- EUA fabricam o primeiro chip 3D real com nanotubos de carbono e RAM integrada — salto de até 1000x em eficiência
- “Dia do Juízo Final das IA jamais vai acontecer”, afirma CEO da NVIDIA
Mudança na hierarquia do hardware
O desenvolvimento do AI SSD é reveladora para a hierarquia de hardware nos próximos meses: o armazenamento deixa de ser um componente secundário e passa a influenciar diretamente desempenho, custos e escalabilidade.
Ao aproximar NAND do universo da inferência, NVIDIA e SK hynix sinalizam que o futuro da IA dependerá tanto de fluxos de dados eficientes quanto de poder computacional bruto.
O movimento também indica que gargalos antes considerados aceitáveis se tornam obstáculos estratégicos em um cenário de modelos cada vez maiores e aplicações em tempo real.
Em outras palavras, o ritmo da IA a partir de 2026 pode depender menos de quantas GPUs existem no mundo e mais de quantos bits de NAND conseguem sair das fábricas.
Fonte: SDX Central
- Categorias
Participe do grupo de ofertas do Adrenaline
Confira as principais ofertas de hardware, componentes e outros eletrônicos que encontramos pela internet. Placa de vídeo, placa-mãe, memória RAM e tudo que você precisa para montar o seu PC. Ao participar do nosso grupo, você recebe promoções diariamente e tem acesso antecipado a cupons de desconto.
Entre no grupo e aproveite as promoções