Desduplicação de Comprimento Variável

A desduplicação de dados revolucionou o centro de dados, melhorando a proteção de dados e reduzindo os custos de armazenamento. Atualmente, existem mais formas do que nunca para potenciar a desduplicação de dados; desde matrizes flash, aplicativos de backup e, obviamente, equipamentos de backup de discos. Por isso, quais são as principais considerações ao selecionar tecnologia de desduplicação?

O que é a Desduplicação de Comprimento Variável?

A finalidade da desduplicação de dados é aumentar a quantidade de informação que pode ser armazenada em matrizes de disco e aumentar a quantidade de dados efetiva que pode ser transmitida por redes. Existem vários algoritmos concebidos para reduzir dados, desde algoritmos de compactação até formas diferentes de desduplicar bits ou blocos de dados redundantes para reduzir os dados gravados em disco. Os métodos principais são baseados em arquivos ou podem utilizar segmentos de dados com comprimento fixo ou desduplicação de comprimento variável.

A desduplicação de dados usada e implementada pela Quantum é a abordagem específica à redução de dados construída sobre uma metodologia que substitui sistematicamente os indicadores de referência para blocos de comprimento variável redundantes (ou segmentos de dados) em um conjunto de dados específico.

A tecnologia de desduplicação da Quantum divide a sequência de dados em segmentos de dados de comprimento variável, usando uma metodologia dependente dos dados, que pode encontrar os mesmos limites de bloco em diferentes localizações e contextos. Este processo de criação de blocos permite que os limites "flutuem" dentro da sequência de dados, para que as alterações em uma parte do conjunto de dados tenham pouco ou nenhum impacto nos limites de outras localizações do conjunto de dados. Por meio deste método, os segmentos de dados duplicados podem estar em diferentes localizações no interior de um arquivo, dentro de arquivos diferentes, dentro de arquivos criados por aplicativos diferentes e dentro de arquivos criados em alturas diferentes.

A Diferença de Redução de Dados

MELHORAR A DESDUPLICAÇÃO REDUZ 6X OS CUSTOS DE ARMAZENAMENTO, REDE E NUVEM

Acima de tudo, a quantidade de redução de dados pode variar significativamente consoante o algoritmo de desduplicação e as características dos dados, desde redução de 50% (taxa 2:1), até redução de 99% (taxa 100:1) ou mais, usando a desduplicação de comprimento variável. Desta forma, a vantagem da desduplicação é dupla: (1) reduzir dados armazenados no disco e (2) reduzir tráfego de rede (LAN ou WAN), uma diferença de 2x ou 10x na redução de dados poderá ter um impacto bastante significativo nos custos de armazenamento, rede e nuvem.

O método de comprimento variável patenteado pela Quantum é a forma mais eficiente para desduplicar dados de centros de dados comuns – 6x mais eficaz do que abordagens de bloco fixo.

Quando a desduplicação se baseia em segmentos de dados de comprimento variável, a desduplicação de dados tem a capacidade de fornecer maior granularidade do que tecnologias de armazenamento de instância única, que identificam e eliminam a necessidade de armazenar instâncias repetidas de arquivos inteiros idênticos. De fato, a desduplicação de comprimento variável pode ser combinada com sistemas de redução de dados baseados em arquivos, para aumentar sua eficácia.

90% = 10:1 = "Armazenar 100 TB de dados como 10 TB no disco"

73% = 3,75:1 = "Armazenar 100 TB de dados como 27 TB no disco"

PORCENTAGEM DE ECONOMIA NO DISCO
Backup do Exchange Comprimento Variável DXi Bloco Fixo
1 33% 48%
2 62% 61%
3 73% 60%
4 78% 65%
5 82% 70%
... ... ...
18 90% 73%

O diagrama anterior ilustra a diferença – este diagrama mostra os resultados de completar 18 backups sequenciais de um ambiente Microsoft Exchange e, em seguida, mostra a porcentagem de economia no disco nesses 18 backups para a desduplicação DXi® de comprimento variável, e um algoritmo de desduplicação de bloco fixo. Os resultados mostram que, após 18 backups, a desduplicação de comprimento variável reduz os requisitos do disco em 90%, enquanto o bloco fixo apenas reduz os dados em 73%. Em termos reais, isto significa que a desduplicação de comprimento variável armazena os mesmos dados em um terço da capacidade do disco em relação a uma abordagem de bloco fixo.

Replicação com Capacidade de Desduplicação

MOVER DADOS EXTERNAMENTE E NA NUVEM

A desduplicação foi originalmente concebida como uma tecnologia para backup e recuperação de desastre, uma tecnologia que iria reduzir ou eliminar o uso de fita para backup. E é uma ótima tecnologia de backup, pois os dados de backup contêm muitos conjuntos de dados redundantes ao longo do tempo. Mas a desduplicação permitiu muito mais do que somente a redução de dados, ela está se tornando uma tecnologia na nuvem fundamental.

A desduplicação de dados torna prático o processo de replicação de dados de backup, reduzindo a largura de banda e os custos necessários para criar e manter conjuntos de dados duplicados em redes. A um nível básico, a replicação com capacidade de desduplicação é semelhante aos armazenamentos de dados com capacidade de desduplicação. Quando duas imagens de um armazenamento de dados de backup são criadas, tudo o que é necessário para manter a réplica ou um destino idêntico à origem é a cópia periódica e o movimento dos novos segmentos de dados adicionados durante cada evento de backup, junto com sua imagem de metadados ou namespace.

A desduplicação de comprimento variável reduz o armazenamento em disco, mas também reduz significativamente os requisitos de largura de banda da rede, pois somente os dados desduplicados são replicados. Isto significa que os dados podem ser replicados entre localizações e de/para a nuvem de forma muito eficiente, minimizando o tráfego de rede e os custos.

A Localização é Importante: Para Onde Desduplicar

COMO A DESDUPLICAÇÃO TEM IMPACTO NOS RECURSOS DE COMPUTAÇÃO

Todos os algoritmos de redução de dados têm o seguinte em comum: Eles usam a energia de computação/processamento para executar o algoritmo, bem como para monitorar os vários bits de dados. Portanto, se o usuário ligar a desduplicação no armazenamento primário, flash ou SSD, esse dispositivo irá consumir energia de processamento, efetuando desduplicação que não estaria disponível para outras tarefas, como por exemplo servir os clientes, aplicativos e usuários desse armazenamento. Além disso, não só a energia de processamento é usada durante o tempo em que os dados estão sendo inicialmente desduplicados, como também, com todos os algoritmos, é necessário executar algum tipo de processo de desfragmentação ou de reclamação de espaço no disco para limpar o pool de bits e blocos. Isto também consome energia de processamento e, novamente, quando o dispositivo está efetuando esta função, ele tem menos capacidade disponível para efetuar outras tarefas. Resumindo, tudo tem seu preço. A potência da CPU, a RAM, e o armazenamento necessários para executar a desduplicação tem de vir de algum lado.

É por isto que a desduplicação é ideal como tecnologia para backup construída à medida e deve ser implementada como equipamento. O backup evoluiu ao longo do tempo para um processo que ocorre durante uma janela específica no centro de dados – durante esse tempo, os servidores de backup e o armazenamento estão "ocupados" – ou seja, durante a janela de backup, como de noite ou durante o fim de semana. Mas o armazenamento de backup pode "permanecer inativo" fora das janelas de backup – esta é uma altura perfeita para que os equipamentos de backup efetuem as tarefas de backup que estão associadas à desduplicação, e podem fazê-lo durante o tempo em que tal não terá impacto nos aplicativos de backup ou de produção.

As Soluções Quantum são Comprovadas para Desduplicação Replicação

Solicite mais informação online
TELEFONE 800-677-6268 | E-MAIL INFO@QUANTUM.COM
Preciso De Uma Solução SimilarSOLICITE MAIS INFORMAÇÃOFALE
CONOSCO