Partilhe nas Redes Sociais

PUB

O Disaster Recovery morreu

Israel Serrano, Country Manager para Portugal e Espanha da INFINIDAT

Publicado em 12 Fevereiro 2019 | 430 Visualizações

Vivemos tempos muito rápidos. Tão rápidos, na verdade, que um recente estudo da Google mostra que mais de metade dos utilizadores abandonarão um website se este demorar mais de 3 segundos a abrir. Qualquer negócio online sabe que se o seu website fica em baixo, os utilizadores simplesmente passam para o da concorrência e obterão acesso ao produto, serviço ou informação noutro lugar.

Este rápido ritmo dos negócios é exatamente o que impulsiona a revolução nas arquiteturas de TI. A recuperação de desastres, ou Disaster Recovery (DR), tal como a conhecemos hoje, está morta. Qualquer processo que demore horas a recuperar a informação é, simplesmente, inaceitável.

Nem todas as infraestruturas são iguais, mas as que ajudam a reter os clientes, garantindo o funcionamento e o desempenho, seguramente estarão à frente das restantes em qualquer checklist empresarial. Sem uma infraestrutura moderna, não é possível implementar um negócio moderno.

Tradicionalmente, a maioria das empresas “blindaram-se” através de soluções DR, mas o tempo veio a demonstrar-lhes que, por vezes, pode demorar demasiado tempo a recuperar os serviços essenciais ao negócio. Isto, por sua vez, conduziu a uma mudança importante na forma como os dados são armazenados e distribuídos geograficamente. Dada esta situação, as organizações devem evoluir para uma infraestrutura de dados que possa suportar a recuperação em tempo real, sem que, para isso, sejam obrigadas a agregar mais camadas de infraestrutura.

Porque são os dados non-stop o início do crescimento do negócio

Talvez não seja uma grande surpresa, mas um recente estudo da Gartner sobre as prioridades das empresas revelava que os negócios digitais são uma prioridade para este ano. A consultora preguntou aos inquiridos se já contavam com uma iniciativa de transformação para tornar o seu negócio mais digital, e uma ampla maioria (62%) respondeu que sim. Segundo a Gartner, «no futuro, as infraestruturas de TI têm obrigatoriamente que estar sempre ativas, sempre disponíveis, e em todo o lado».

Parece que em 2019 (e mais além) as empresas aprenderão a evoluir e serão cada vez mais ágeis como resultado da sua interação com os clientes através de canais digitais, sendo que também aumentará a sua confiança na disponibilidade de dados em tempo real. O uso das novas tecnologias para ajudar a competir de maneira mais eficiente e não serem “vítimas da inércia” é de extrema importância. À medida que as empresas se tornam mais dependentes da análise de dados e enfrentam uma concorrência impulsionada por uma sociedade baseada na satisfação instantânea, conceitos como Always On tornam-se numa questão crítica.

O “lado obscuro” da transformação digital

Tornámo-nos dependentes das TI para gerir os negócios. Tanto é assim, que os arquitetos de infraestruturas estão agora a construir sistemas resistentes a falhas, criando infraestruturas de dados “Always On” para permitir suportar uma empresa que nunca pára de funcionar. No entanto, a transição do DR para o conceito Always On não está isenta de problemas.

As empresas estão a lidar com soluções tradicionais que utilizam soluções Always On dedicadas (por exemplo, gateways de alta disponibilidade), acabando por complicar a gestão e aumentar o custo total de propriedade (TCO). A melhor solução está em procurar tecnologias que permitam às organizações proteger mais aplicações sem cobrar mais ao cliente. Também se deve considerar a melhor forma de simplificar e configurar a gestão dos dados ao mesmo tempo que se reduz a latência.

O TCO deve fazer parte de qualquer estratégia Always On desde o princípio. De contrário, as empresas podem ficar agarradas a um plano dispendioso e insustentável. O acesso ininterrupto aos dados aumenta a reputação da empresa, mas é a capacidade de se mover rapidamente e adotar novos produtos e serviços que gera o crescimento do negócio.

5 boas práticas Always On

  1. Elimine a complexidade das TI: Hoje em dia, a maioria das empresas requerem soluções pontuais, dedicadas (gateways de alta disponibilidade, ou HA), com funções, ferramentas de administração e requisitos de monitorização diferentes. Isto acrescenta complexidade tanto à operação como aos processos de automatização. As empresas deveriam procurar uma solução integrada que combine armazenamento e capacidades Always On.
  2. Reduza os custos: As gateways HA são dispendiosas e, muitas vezes, o seu preço varia em função da capacidade. Isto obriga as organizações a minimizar o número de aplicações que beneficiam do seu desempenho Always On. O custo é ainda maior quando a solução HA requere fibre channel entre locais.
  3. Desempenho constante, em qualquer lugar: as operações síncronas através de dois sistemas de armazenamento em duas localizações aumentam a latência, o que faz com que sejam mais difíceis de adotar com determinadas aplicações. No caso das implementações a longa distância, enviar uma operação de escrita para o array local e outra para o remoto duplicará a latência, gerando-se uma má experiência de utilizador. Muitas vezes, isto é resultado de uma má configuração e pode ser corrigido simplificando e automatizando a configuração, para permitir que os hosts diferenciem as rotas que devem usar sempre das que só devem ser utilizadas em caso de falha, minimizando assim o impacto no rendimento e permitindo uma adoção mais ampla.
  4. Funcionalidades variáveis: As soluções que se autodenominam “Always On” variam significativamente em funcionalidade. Algumas oferecem uma cópia read-only num dos locais e fail-over automatizado, mas outras sofrem graves penalizações no desempenho quando escrevem para a cópia secundária. Neste segundo caso, ao tratar ambas as cópias de igual maneira, a penalização é mínima ou inexistente, já que os hosts podem escrever em ambas (cópias realmente ativas) sem qualquer processo de fail-over.
  5. Fiabilidade: Como qualquer solução distribuída geograficamente, os clusters Always On requerem uma forma de “romper o vínculo” em caso de uma falha de comunicação entre os sistemas. Em última instância, as empresas devem implementar uma “testemunha”, ou seja, um terceiro domínio com networking redundante com cada local, para o caso de os dois sistemas não poderem comunicar diretamente. Será responsabilidade do fornecedor garantir que esse terceiro domínio se adapte ao método de implementação preferido do cliente (na cloud ou on premise).

Publicado em:

Opinião

Partilhe nas Redes Sociais

Artigos Relacionados