Este site utiliza cookies

Utilizamos cookies para melhorar sua experiência de navegação, personalizar conteúdo e analisar nosso tráfego. Ao clicar em 'Aceitar', você concorda com o uso de cookies conforme nossa Política de Privacidade.

Virtualização

Projeto e Dimensionamento da Hierarquização de Memória NVMe no VMware Cloud Foundation 9 – Parte 3: Dimensionamento para o Sucesso

VMware
04 de dezembro de 2025
7 min de leitura
Compartilhar:
Projeto e Dimensionamento da Hierarquização de Memória NVMe no VMware Cloud Foundation 9 – Parte 3: Dimensionamento para o Sucesso

Dimensionamento Adequado para NVMe Memory Tiering

Até agora, nesta série de blogs, destacamos o valor que o NVMe Memory Tiering oferece aos nossos clientes e como isso está impulsionando sua adoção. Quem não gostaria de reduzir seus custos em cerca de 40% apenas adotando o VMware Cloud Foundation 9?! Também abordamos pré-requisitos e hardware na Parte 1, e design na Parte 2; então, vamos agora falar sobre o dimensionamento adequado do seu ambiente para que você possa maximizar seu investimento e, ao mesmo tempo, reduzir seus custos.

O dimensionamento adequado para o NVMe Memory Tiering é focado principalmente no lado do hardware, mas existem duas maneiras possíveis de abordar isso: greenfield (novas implementações) e brownfield (implementações em infraestrutura existente).

Implementações Brownfield: Adotando o Memory Tiering em Infraestrutura Existente

Vamos começar com as implementações brownfield. Você percebeu que o VCF 9 é realmente um produto integrado que oferece uma solução coesa semelhante a uma cloud (nuvem) e decidiu implementá-lo, mas só agora soube sobre o Memory Tiering. Não se preocupe, você ainda pode introduzir o NVMe Memory Tiering após a implantação do VCF 9.

Após ler a Parte 1 e a Parte 2, aprendemos a importância das classes de performance e endurance do NVMe, bem como a necessidade de compreender o requisito de 50% de memória ativa (active memory). Isso significa que precisamos considerar a compra de um dispositivo NVMe que seja pelo menos do mesmo tamanho da nossa DRAM, já que dobraremos nossa capacidade de memória. Assim, se cada um dos seus hosts tiver 1TB de DRAM, devemos ter pelo menos dispositivos NVMe de 1TB – o que é fácil de entender.

No entanto, podemos adquirir dispositivos maiores e ainda assim ser mais econômicos do que comprar mais DIMMs. Deixe-me explicar.

Fiz questão de dizer "compre um dispositivo NVMe para ser pelo menos do mesmo tamanho da DRAM", e isso ocorre porque usamos uma proporção DRAM:NVMe de 1:1 por padrão; metade da memória vem da DRAM e metade vem do NVMe.

Existem workloads (cargas de trabalho) que podem não ter muita atividade de memória, como algumas cargas de trabalho VDI. Se eu tiver workloads com 10% de memória ativa de forma consistente, por exemplo, eu poderia realmente tirar proveito dos recursos avançados do NVMe Memory Tiering. A proporção padrão de 1:1 existe por um motivo, pois a maioria dos workloads se encaixa bem nessa divisão, mas essa proporção DRAM:NVMe é um parâmetro de configuração avançada que podemos alterar, podendo chegar a 1:4 – sim, 400% a mais de memória.

Portanto, para aqueles workloads com memória ativa muito baixa, ter uma proporção de 1:4 pode maximizar seu investimento.

Como isso muda minha estratégia de dimensionamento?

Que bom que você perguntou. Como a proporção DRAM:NVMe pode ser alterada, assim como a atividade de memória do seu workload pode mudar, devemos considerar essa possibilidade durante a fase de aquisição do NVMe.

Voltando ao exemplo anterior de um host com 1TB de DRAM, decidimos que ter pelo menos 1TB de NVMe fazia todo o sentido, mas com workloads de memória ativa muito baixa, esse 1TB pode não estar lhe dando o melhor retorno (bang for your buck). Neste caso, ter um NVMe de 4TB permitiria usar a proporção DRAM:NVMe de 1:4 e aumentar sua memória em 400%. É por isso que analisar a memória ativa do seu workload antes de comprar dispositivos NVMe é tão importante.

Outro aspecto que influencia o dimensionamento é o tamanho da partição (partition size). Ao criar uma partição no NVMe antes de configurar o NVMe Memory Tiering, digitamos um comando, mas geralmente não passamos um tamanho para ele, pois ele criará automaticamente uma partição com o tamanho do drive (unidade), até 4TB.

A quantidade de NVMe que será usada para Memory Tiering é uma combinação do tamanho da partição NVMe, da quantidade de DRAM e da proporção DRAM:NVMe configurada.

Digamos que queremos maximizar nosso investimento e preparar o hardware para o futuro (future proof) comprando um dispositivo NVMe SED de 4TB, mesmo que nossos hosts tenham apenas 1TB de DRAM. Uma vez configurado com as opções padrão, o tamanho da partição seria de 4TB (este é o tamanho máximo suportado atualmente), mas a quantidade de NVMe usada para tiering é de 1TB, pois estamos usando a proporção padrão de 1:1.

Se nossos workloads mudarem, ou se alterarmos a configuração da proporção para, digamos, 1:2, o tamanho da partição permanece o mesmo (não há necessidade de recriar), mas agora usaremos 2TB de NVMe em vez de apenas 1TB, apenas alterando a proporção. É importante entender que não recomendamos alterar essa proporção sem a devida diligência (due diligence) e sem garantir que a memória ativa dos seus workloads se encaixe na DRAM disponível.

DRAM:NVMeTamanho da DRAMTamanho da Partição NVMeNVMe Usado
1:11 TB4 TB1 TB
1:21 TB4 TB2 TB
1:41 TB4 TB4 TB

Portanto, para o dimensionamento de NVMe, considere o tamanho máximo de partição suportado (4TB) e as proporções que podem ser configuradas com base na memória ativa dos seus workloads. Esta não é apenas uma decisão de custo, mas também de escala. Lembre-se de que, mesmo com grandes dispositivos NVMe, você economizará uma quantia substancial de dinheiro em comparação com a DRAM sozinha.

Implementações Greenfield: Planejando a Compra de Servidores

Agora, vamos falar sobre casos de uso de implementação greenfield, onde você está ciente do Memory Tiering e precisa comprar novos servidores. Você pode usar esse recurso como um parâmetro em seu cálculo de custos. Os mesmos princípios das implementações brownfield se aplicam, mas se estamos planejando implantar o VCF, faz sentido investigar como o NVMe Memory Tiering pode reduzir substancialmente o custo de compra do seu servidor.

Conforme afirmado anteriormente, é super importante garantir que seus workloads sejam adequados para o Memory Tiering (a maioria dos workloads é), mas você deve sempre verificar. Depois de fazer sua pesquisa, você pode tomar decisões sobre hardware com base na qualificação do workload.

Digamos que todos os seus workloads se qualifiquem para o Memory Tiering; na verdade, a maioria deles tem cerca de 30% de memória ativa.

Neste caso, ainda é recomendado permanecer no lado conservador e dimensionar com a proporção DRAM:NVMe padrão de 1:1. Se você precisar de 1TB de memória por host para seus workloads, você pode optar por diminuir a quantidade de DRAM para 512GB e adicionar 512GB de NVMe. Isso fornecerá a quantidade total de memória necessária e, com base em sua pesquisa, você sabe que a memória ativa dos workloads caberá na DRAM em todos os momentos.

Além disso, a quantidade de dispositivos NVMe por host e o controlador RAID seriam uma decisão separada que não afetaria realmente o espaço NVMe disponível, pois ainda precisamos fornecer um dispositivo lógico, seja ele um único dispositivo NVMe standalone ou 2 ou mais dispositivos em uma configuração RAID. Essa decisão, no entanto, afetaria o custo e a redundância.

Por outro lado, você também pode optar por manter a quantidade de DRAM de 1TB e ainda adicionar outro 1TB de memória por meio do Memory Tiering. Isso permitiria ter servidores mais densos, resultando em menos servidores necessários para acomodar seus workloads. Neste caso, sua economia de custos viria de menos hardware e componentes, bem como menos refrigeração e energia.

Conclusão

Em conclusão, quando se trata de dimensionamento, é importante considerar todas as variáveis: quantidade de DRAM, tamanho do(s) dispositivo(s) NVMe, tamanho da partição e proporção DRAM:NVMe.

Além dessas variáveis, um estudo mais aprofundado deve ser feito para implementações greenfield, onde você pode aumentar ainda mais sua economia de custos comprando DRAM apenas para sua memória ativa e não para todo o memory pool (conjunto de memória), como fizemos por anos.

Falando em considerações e planejamento, outra área a ser considerada é a compatibilidade do Memory Tiering e do vSAN, que será abordada na próxima parte desta série (Parte 4).


Série de Blogs:

PARTE 1: Pré-requisitos e Compatibilidade de Hardware PARTE 2: Projetando para Segurança, Redundância e Escalabilidade

Descubra mais no VMware Cloud Foundation (VCF) Blog. Assine para receber as últimas postagens em seu e-mail.

Precisa de ajuda com suas soluções de TI?

A VirtuAllIT Solutions oferece consultoria especializada em virtualização, cloud computing e infraestrutura tecnológica.