Tecnologia > Banco de Dados

Por que a replicação de dados é importante?

A replicação de dados torna-se uma saída interessante para as empresas que buscam a rápida recuperação depois de uma fatalidade

31 de Outubro de 2017 - 13h26

Atualmente, as grandes corporações não podem se dar ao luxo de terem suas operações interrompidas, independentemente do motivo. A rápida recuperação de sistemas após desastres naturais, como enchentes, incêndios, panes elétricas, terremotos, furacões ou tempestades é uma das maiores preocupações nas companhias. Soluções que permitem a continuidade operacional, mesmo após um evento catastrófico, são cada vez mais bem vistas e utilizadas.

Nesse aspecto, a replicação de dados torna-se uma saída interessante para as empresas que buscam a rápida recuperação depois de uma fatalidade. Essas ferramentas são usadas, normalmente, por companhias que possuem mais de uma estrutura de data center. Assim, se ocorrer um problema em um deles, é possível continuar com as operações normalmente a partir de outro centro de processamento. Veja a seguir duas formas viáveis de replicação de dados e seus principais desafios:

. Ativo-ativo — Nesse método, as aplicações guardam seus dados em ambos datacenters ativamente. Esse é o formato mais seguro, pois garante a continuidade operacional sem que haja perda de informações e sem a necessidade da virada de sistemas, mitigando os riscos de forma complexa.

. Ativo-passivo — Nesse método, a replicação é baseada na sincronização, que pode ser contínua, quando há um grande link de informações entre os dois datacenters, enviando do ativo para o passivo. Essa solução, entretanto, nem sempre ocorre em tempo real, podendo ser realizada de tempos em tempos. Caso aconteça um desastre, pode haver uma lacuna necessária para a virada de sistemas e replicação de dados, aumentando a probabilidade tanto da queda do serviço quanto da perda de elementos.

Para a implementação, o custo pode ser considerado alto. Nesses casos, é importante que as empresas ponderem se o valor por ter a operação parada por dias ou semanas é menor do que o de implantação de replicação. Dependendo da conclusão, é fundamental que haja uma reavaliação das estratégias de recuperação, validando a necessidade de um novo datacenter. Esse, por sua vez, normalmente deve ser instalado em região geográfica distante do original.

Principais desafios

Os dados em grandes corporações estão cada vez mais volumosos. O principal entrave é que o tamanho da largura da banda, necessária para trafegar as informações, não acompanha o crescimento na mesma proporção que o armazenamento. As estratégias de replicação ativo-ativo são, portanto, as mais interessantes, mesmo requerendo mudanças de softwares para o funcionamento transparente em data centers. Esses são desafios que novas tecnologias de banco de dados, como o NoSQL e ferramentas de big data, são capazes de resolver de maneira nativa, sem que haja a necessidade de aquisição de softwares específicos para essa finalidade.

Existem, ainda, alternativas que permitem que a replicação seja feita em ambientes internos com um único datacenter. Um bom exemplo disso são os de Hadoop, que replicam as informações, por padrão, três vezes dentro de seu próprio espaço. Para empresas menores, onde não há a possibilidade de investimento em outros datacenters, é importante garantir a alta disponibilidade por meio de serviços com arquitetura nativa de replicação, como a NoSQL e as ferramentas de big data.

Hoje a melhor forma de se armazenar, recuperar e analisar as informações em um único ambiente utilizando big data é por meio de sistemas preparados de forma nativa para conseguir obter resultados de alta disponibilidade com a replicação de dados.

*Leonardo Oliveira Dias é cofundador da Semantix, empresa especializada em big data, inteligência artificial, Internet das Coisas e análise de dados.