"

Escala inteligente

NVIDIA e ARM fecham parceria para levar NVLink Fusion aos chips Neoverse e turbinar Data Centers de IA

Nova tecnologia liga CPUs e aceleradores com mais banda e coerência. Entenda como o recurso promete mudar a arquitetura de infraestruturas modernas.

NVIDIA e ARM fecham parceria para levar NVLink Fusion aos chips Neoverse e turbinar Data Centers de IA
Créditos: Divulgação/NVIDIA

A NVIDIA oficializou uma nova fase da colaboração com a ARM ao liberar o NVLink Fusion para toda a linha Neoverse, abrindo caminho para racks de computação em que CPUs, GPUs e aceleradores trocam dados com mais coerência e alta largura de banda.

A decisão amplia o ecossistema criado com Grace Blackwell e mira a reconfiguração da infraestrutura usada por grandes provedores de nuvem e centros de pesquisa.

O movimento expande a conectividade entre unidades de processamento ao permitir que fabricantes utilizem NVLink Fusion para integrar seus próprios designs de CPU baseados em ARM com GPUs da adrenalinee outros aceleradores compatíveis.

Em vez de depender de barramentos tradicionais limitados em banda e latência, a nova abordagem cria um ambiente unificado em rack, onde o fluxo de dados circula de forma mais eficiente entre os chips.

A tecnologia opera em conjunto com o AMBA CHI C2C, protocolo de comunicação criado pela ARM para entregar coerência entre componentes. A compatibilidade reduz o esforço de integração e simplifica o desenvolvimento de SoCs prontos para cargas de IA em larga escala.

Quem projeta seus próprios chips ARM ou usa IP da ARM agora pode adotar o NVLink Fusion para conectar esses CPUs diretamente a GPUs ou ao restante do ecossistema NVLink, e isso já está acontecendo em infraestrutura de rack e sistemas de escala aumentada

Ian Buck, vice-presidente de computação acelerada da NVIDIA

Neoverse ganha terreno nos hyperscalers

A ARM projeta que a família Neoverse alcance metade do mercado de hyperscalers até o fim de 2025.

Plataformas internas de AWS, Google, Microsoft, Oracle e Meta já utilizam arquiteturas derivadas do Neoverse para executar workloads de IA, ciência de dados e serviços em nuvem de grande porte.

A chegada do NVLink Fusion se encaixa nesse cenário ao tentar aliviar gargalos de memória e banda que se tornaram mais evidentes com o crescimento dos modelos generativos. Quanto maior o volume de parâmetros e o número de GPUs conectadas, maior a dependência de interconexões robustas.

Como a combinação entre ARM e NVIDIA afeta o ecossistema de IA

Para o setor, o interesse está menos em promover um padrão proprietário e mais em viabilizar sistemas heterogêneos, onde cada empresa pode escolher seus aceleradores preferidos sem perder capacidade de comunicação entre os chips.

O NVLink Fusion mantém coerência de dados entre processadores, acelera inferência, reduz latência nas trocas entre GPU e CPU e diminui etapas de cópia de memória.

Divulgação/NVIDIA

Em Data Centers com pressão por eficiência energética, qualquer redução de movimentação de dados se traduz em menos calor, menor custo operacional e maior densidade por rack.

Além disso, o suporte ao NVLink Fusion se alinha à expansão da família Grace Blackwell e a tendências vistas em supercomputadores recentes, que adotam arquiteturas unificadas para treinar modelos com trilhões de tokens.

Consequências para fabricantes e para a próxima geração de servidores

A compatibilidade oferecida pela ARM permite que fabricantes de SoCs construam placas e sistemas inteiros com comunicação coerente entre CPUs Neoverse e aceleradores, algo que antes ficava restrito a plataformas proprietárias.

Isso deve reduzir tempo de desenvolvimento, acelerar projetos customizados e estimular novas combinações entre chips de diferentes fornecedores.

A expectativa do setor é que a adoção do NVLink Fusion produza máquinas mais compactas, prontas para cargas de trabalho de física computacional, IA embarcada, simulações industriais e processamento distribuído em nuvem.

Divulgação/NVIDIA

Nova era na arquitetura de Data Centers

A parceria marca uma expansão consistente da estratégia adotada pela NVIDIA para conectar cada vez mais componentes em um único plano de computação.

Ao invés de depender exclusivamente de GPUs para absorver todas as etapas da IA, a empresa aposta em uma malha de chips integrados por interconexão coerente, capaz de sustentar redes maiores, modelos mais amplos e workflows híbridos.

Ao mesmo tempo, a ARM posiciona o Neoverse como a base de um ecossistema flexível e interoperável para quem projeta infraestrutura de ponta.

A soma das duas visões cria um ambiente em que banda e coerência deixam de ser limitações e passam a apoiar a próxima onda de Data Centers.

Leia também:

Onde essa evolução pode nos levar

A chegada do NVLink Fusion ao Neoverse indica que a convergência entre arquiteturas será determinante nos próximos ciclos da IA.

Em um setor em que o volume de dados cresce mais rápido que a capacidade de fabricação, a interconexão se transforma no elemento que define até onde é possível escalar.

O resultado esperado é um ambiente mais modular, mais eficiente e capaz de absorver experimentos cada vez maiores sem desperdiçar energia ou travar workflows. É nesse terreno que surgem as bases para modelos científicos, robótica avançada, simulações industriais e aplicações que exigem computação unificada.

Fonte: NVIDIA

Participe do grupo de ofertas do Adrenaline

Confira as principais ofertas de hardware, componentes e outros eletrônicos que encontramos pela internet. Placa de vídeo, placa-mãe, memória RAM e tudo que você precisa para montar o seu PC. Ao participar do nosso grupo, você recebe promoções diariamente e tem acesso antecipado a cupons de desconto.

Entre no grupo e aproveite as promoções
Sair da versão mobile