2018-4-02

A FUNDO

Os novos paradigmas do data center

Várias forças estão a influenciar a evolução e sobretudo o propósito do data center privado. A evolução destas infraestruturas, e as suas principais tendências, estiveram em evidência num debate que contou com a participação da Itancia/ALE, Capgemini, Eaton, HPE, PROEF IT e Schneider Electric

Os novos paradigmas do data center

A complexidade crescente do IT empresarial coloca sobre o data center uma pressão acrescida. De acordo com a Gartner, que identificou no final do ano passado as tendências tecnológicas com maior impacto no data center, as infraestruturas legacy e as arquiteturas tradicionais já não conseguem dar respostas às exigências dos negócios digitais.

A transformação digital, diz a consultora, exige agilidade e velocidade do lado do IT, caraterísticas que ultrapassam a capacidade das infraestruturas do passado. “A transformação digital traz necessidades acrescidas e as empresas têm de conseguir adaptar-se e estar na linha da frente para gerar mais negócio”, acentuou Tiago Caneiras, Data Center Segment & 3Ph UPS Key Account na Eaton. “O ciclo da venda de uma empresa, hoje, é em quase 70% digital. As que conseguirem adaptar a sua infraestrutura para dar melhor resposta, ao nível de aplicações, dados e disponibilidade, estarão mais bem posicionadas para obter resultados superiores”.

Neste contexto, novas exigências se colocam ao data center privado, que apesar do fim repetidamente anunciado continua a ser relevante. Se há uns anos o data center era construído “para facilitar o clima dos negócios”, indicou Maria de Lurdes Carvalho, VP data center & industrial solutions Europe na Schneider Electric, hoje não é assim, já que estas infraestruturas têm vindo a evoluir “no sentido de serem o próprio negócio”. Apesar de ter havido uma diminuição dos data centers on-premises, referiu, “porque muitas aplicações migraram em regime de outsourcing”, a verdade é que estes continuam a representar uma elevada percentagem do mercado de infraestrutura. “Continua a haver a proliferação de muitas salas de data center. O propósito destas infraestruturas é que está a mudar um pouco, na medida em que temos de responder aos desafios da transformação digital, da Internet of Things (IoT) e do Big Data”.

Os dispositivos e os utilizadores ligados à Internet “têm vindo a crescer exponencialmente”, indicou, o que exige do data center “maior velocidade de transmissão dos dados e de processamento”. Portanto, acrescentou, a evolução das infraestruturas on-premises “tem de acontecer”. Luís Rilhó, Product Category Manager da HPE, reforçou a mensagem de que para os clientes, no atual contexto híbrido, é verdadeiramente importante e desafiante conseguir gerir, “através de software e com os mesmos níveis de segurança e visibilidade”, os workloads que estão on e off premises. “Este equilíbrio é difícil de encontrar. Existem soluções muito díspares nos clientes (Linux, Microsoft, UNIX) e por isso mais difíceis de integrar”, indicou. “Criar a infraestrutura correta, com o preço correto, tendo em conta as necessidades das organizações", assinalou, é o “grande desafio”. José Eurico Dias, Technology Sales Expert da Itancia, distribuidor de valor acrescentado da Alcatel-Lucent Enterprise (ALE), fez questão de sublinhar que “a necessidade de manipular dados em tempo real leva a que os data centers prevaleçam”.

 

Realidade híbrida

Depois de um movimento de centralização em direção à cloud, assiste-se agora ao movimento oposto. “Quando a IoT surge, verificamos que a cloud não é a resposta para muitos dos dados gerados pelos próprios utilizadores, ou seja, para os dados locais, que são muito sensíveis à velocidade de transmissão em tempo real”, esclareceu Maria de Lurdes Carvalho (Schneider Electric). Esta inversão de marcha, que dá pelo nome de edge computing, ou computação próxima da recolha dos dados, faz renascer o propósito do data center privado. “Com o aumento do número de sensores a recolherem dados, teremos de os processar com maior proximidade ao local onde estão a ser gerados”, explicou Luís Rilhó (HPE). Assim, se por um lado continuarão a existir data centers centralizados na cloud, “para dados e aplicações que não são sensíveis a tempos de latência elevados, a larguras de banda mais baixas ou a requisitos de proteção de dados”, justificou Maria de Lurdes Carvalho (Schneider Electric), por outro o edge computing “está a criar um ambiente de computação híbrido, onde coexistem cloud e pequenos data centers localizados”. Se é verdade que as empresas tendem a migrar para a cloud pública as aplicações “que fazem sentido”, disse Luís Rilhó (HPE), também há as que, depois de fazer contas, se apercebem de que a agilidade da cloud pública vem frequentemente acompanhada de custos avultados. “Não é financeiramente viável alojar todos os workloads na cloud pública”, disse, lembrando que a cloud, enquanto infraestrutura, também pode existir on-premises – neste caso, estamos perante cloud privada.

Mário Paulo, Senior Cloud Manager Cloud Computing & Infra Services da Capgemini frisou que os clientes sentem particular dificuldade no desenho de um business case. “Sabem o que querem, mas não conseguem perceber o que devem adquirir junto de cada fabricante”. Enunciou, ainda, uma dificuldade adicional: o facto de o cliente solicitar cada vez mais o IT como um serviço. “O compromisso com a segurança dos dados é um tema sensível, que leva a que as soluções de cloud pública em Portugal não tenham tração”, revelou. “Temos procurado converter as soluções dos clientes em soluções híbridas. Tudo o que tem necessidade de uma menor latência fica dentro de casa”. Segundo Tiago Caneiras (Eaton), o data center privado continua a ser importante por dois motivos. “Quando chegamos a um cliente que pretende um data center, as suas primeiras palavras são ‘disponibilidade’ e ‘segurança’. O data center privado é o que melhor cumpre estes requisitos”. Ainda assim, reconheceu, de alguma forma a tendência é um caminho híbrido, “porque há aplicações ou informação que não justificam o investimento que seria necessário para tudo estivesse no data center privado”, e que por isso podem ir para a cloud pública. “Os Parceiros têm uma elevada importância junto destes clientes, para tentar entregar uma oferta end-to-end, que salvaguarde a segurança e a disponibilidade dos dados”.

IoT e edge computing são boa oportunidade

Segundo a Gartner, as organizações que já iniciaram o caminho da transformação digital perceberam que uma abordagem mais descentralizada às suas infraestruturas é um requisito. Porque muitos dos dados gerados pela digitalização dos negócios são processados de forma mais eficaz se a computação estiver mais próxima do dispositivo ou da pessoa que estiver a gerar esses mesmos dados.

O exemplo dos carros autónomos ilustra bem o porquê de as infraestruturas locais terem de transformar- se para dar resposta às necessidades de menor latência levantadas pela IoT. “Como é que conseguiremos que uma cloud responda em tempo real quando for necessário decidir, num cruzamento com quatro carros, qual avança primeiro?”, inquiriu Maria de Lurdes Carvalho (Schneider Electric). “Esta informação tem de estar no data center privado ou de proximidade”. Como enfatizou José Eurico Dias (Itancia/ALE) “o edge computing é uma oportunidade para acelerar a análise da informação”. Três setores representam, em Portugal, uma maior apetência por infraestruturas de proximidade: banca, retalho, saúde e indústria, por estarem fortemente preocupados com a melhoria dos seus processos operacionais. Os três primeiros verticais têm algo em comum: “A digitalização é para eles uma forma de conseguir melhorar a experiência do cliente. O setor do retalho está a investir cada vez mais no fluxo de acesso dos visitantes às lojas, na digitalização da experiência em loja, e o edge computing tem um papel muito importante neste ponto”, sublinhou Maria de Lurdes Carvalho (Schneider Electric). “O próprio ato médico é cada vez mais digital e é preciso ter acesso à informação do cliente em tempo real, que até pode fazer a diferença entre a vida e a morte”. Para Tiago Caneiras (Eaton), “fabricantes e Parceiros devem criar alguma proximidade à indústria”, que está a investir em sensorização e automação e que, portanto, necessita de um data center de proximidade. “Os downtimes são extremamente críticos neste setor, uma paragem tem custos elevadíssimos”, justificou.

O edge, apesar de ser uma boa oportunidade de negócio, não está isento de exigências próprias. “Enquanto as aplicações de data center já estão delineadas, no edge ainda estamos a desenhar consoante as necessidades específicas do cliente”, indicou Luís Rilhó (HPE). Os Parceiros com equipas de desenvolvimento estão mais bem preparados, disse, mas não é um tema em que “estejam particularmente ativos” e ao qual devem começar a prestar mais atenção.

A PROEF IT é uma das empresas que não está a passar ao lado desta oportunidade. “Estamos a aliar a área de negócio de integração à de desenvolvimento para entregar uma solução global”, indicou Nuno Silva, PMO manager. “Todas as aplicações que se vão desenvolver para a IoT vão obrigar a que haja data centers de proximidade”. Mário Paulo (Capgemini), realçou, porém, que “nem sempre os data centers que já existem estão adaptados para receber este tipo de aplicações”. Orquestração e automatização são elementares A hibridização das infraestruturas aporta complexidade.

“Observamos um enorme desafio dos operadores de data center, sejam privados ou de outsourcing, no sentido de gerir de uma forma integrada e homogénea aplicações na cloud e mais localizadas”, indicou Maria de Lurdes Carvalho (Schneider Electric). O mais importante é conseguir gerir esta infraestrutura de forma holística, mantendo o controlo e a monitorização individual e local, o que levou a Schneider Electric a desenvolver plataformas de gestão muito vocacionadas para os ambientes de IoT. “Estamos a falar de integrar componentes como o IT, os ativos de rede, a infraestrutura crítica e até o próprio edifício, que também entra na equação da gestão”. Toda esta integração tem ainda o objetivo de garantir a própria analítica dos dados, “fator que é cada vez mais diferenciador”, sublinhou.

A verdade é que todos os decisores pretendem que o seu data center seja “completamente integrado, monitorizado e orquestrado”, observou Tiago Caneiras (Eaton). Se antigamente este era um tema que dizia mais respeito à componente de servidores e storage, hoje vai desde o quadro elétrico, que já permite ler os consumos remotamente, até às unidades de distribuição de energia (PDU). “Cabe-nos a nós, fabricantes, ter uma oferta end-to-end a este respeito, para que os clientes consigam automatizar e monitorizar à distância. Quem quiser estar na vanguarda da transformação digital tem aqui um ponto chave”, advertiu.

Hiperconvergência a despertar interesse

No meio da complexidade, sobressai o que simplifica. Esta é a vantagem das arquiteturas hiperconvergentes, uma evolução da convergência – combinam igualmente armazenamento, computação e redes num único sistema, adicionando a componente de definição por software. Este nível de inteligência é o que permite acabar com silos de armazenamento e computação e gerir recursos através de uma interface comum. “A hiperconvergência é uma tecnologia que os clientes procuram e à qual estão atentos. É uma área onde temos registado maior atividade comercial”, indicou Luís Rilhó (HPE). “Sentimos os clientes finais muito motivados para a hiperconvergência e ávidos de informação sobre o tema. A HPE tem vindo a fazer muito trabalho nesta área, após a aquisição da SimpliVity, e começámos a ter retorno”. Estes equipamentos podem estar numa cloud privada ou híbrida e a elevada procura justifica-se pelo facto de os clientes “procurarem a agilidade que a hiperconvergência entrega”, por um lado, e também por “dispensarem a gestão dos recursos de IT”, acrescentou o product manager, que são escassos e estão frequentemente sobrecarregados com a necessidade de “gerir múltiplas tecnologias”. Apesar de, no momento da aquisição, esta tecnologia não ser a mais económica, acaba por aportar uma otimização dos custos. “Existem ganhos tangíveis e intangíveis muito significativos na operação de uma solução hiperconvergente. Os backups são rápidos e se houver downtime a reposição é igualmente célere”, exemplificou Luís Rilhó.

Nuno Silva (PROEF IT) acrescentou que no horizonte estão ainda “poupanças relevantes do ponto de vista dos consumos energéticos e da própria climatização”. Além da simplificação da gestão e da operação, enfatizou, “estas soluções ocupam menos espaço no data center, que é algo importante para as empresas”. A HPE tem identificado bastante interesse nesta tecnologia por parte dos clientes mais pequenos e alguma retração nos maiores, ao passo que a PROEF IT, pelo contrário, identifica “alguma dificuldade na introdução destas soluções nas PME, essencialmente pelo seu custo". Outro dos benefícios da hiperconvergência é a sua escalabilidade, já que permite expandir a sua capacidade consoante as necessidades do cliente, sendo ainda integrável com as soluções de que estes já disponham. “Para todos os efeitos estamos a incorporar na solução que já existe uma capacidade de storage, computação e rede que amplia cada um dos nós que já existem, pelo que têm de existir cuidados no equilíbrio do desenho da solução”, advertiu Luís Rilhó (HPE).

SDN a pautar a conetividade

Não existe transformação digital sem uma infraestrutura de redes à altura. A conetividade é ponto crítico no data center e não passa ao lado da evoução – depois de ligações de 1Gb e 2 Gb, vamos passar para velocidades de transmissão entre os equipamentos e os core switches de 25 a 50 Gb. “Verificamos que cada vez mais existe um grande volume de informação que deve ser tratada e a conetividade é importante para garantir que não haja quebra de serviço. Se falhar, o cliente não consegue obter os dados que pretende e há serviços que são interrompidos, o que não pode acontecer”, indicou José Eurico Dias (Itancia/ALE). “Nos data centers que ajudamos a implementar, e nos quais prestamos consultoria, tentamos sempre ter mecanismos de resiliência. Os switches e as aplicações têm de ter políticas de resiliência, para assegurar que há sempre um equipamento que assume o controlo da conetividade. Existem vários protocolos de switching que possibilitam a rápida convergência de informação, sem criar indisponibilidade. A ALE privilegia esta caraterística”.

O software defined networking (SDN) continua a ser a maior tendência – virtualizar as redes como se virtualizou no passado o processamento e o armazenamento. “Permite separar o underlay do overlay, dando a possibilidade de utilizar equipamentos commodity na componente física e ter o software a correr sobre esses equipamentos”, sublinhou Luís Rilhó (HPE), alertanto para um aspeto: “Quando se dividem estas duas componentes, software e hardware, é importante para os clientes não fiquem presos a tecnologias ou fabricantes”.
Mário Paulo (Capgemini) sublinhou que a evolução da conetividade dentro do data center e entre data centers “tem sido natural” e que “cada vez precisamos mais de capacidade de processamento superior, do lado do networking, devido às latências”. Porque os clientes estão a privilegiar a conetividade ubíqua para o utilizador final. “O paradigma está a mudar. Os clientes querem garantir de forma simples o acesso às infraestruturas”. Cabe aos integradores, segundo Nuno Silva (PROEF IT), “procurar soluções que garantam a conetividade e o fluxo de informação”, que tende a crescer e para a qual os fabricantes vão encontrando novas soluções. Realçou, porém, que “o data center tem de dispor de níveis de redundância não apenas do ponto de vista das comunicações, mas também da energia e climatização, que assegurem que nunca existe downtime”, já que a alta disponibilidade das infraestruturas é imperativa.

Também o próprio edge computing está a adicionar complexidade às redes. “Parece-nos que as redes, para se adaptarem a esta realidade de ambientes híbridos, têm de ser ainda mais automatizadas, inteligentes e preditivas. É preciso que se adaptem a solicitações constantes, garantindo tempo de serviço”, sublinhou Maria de Lurdes Carvalho (Schneider Electric).

Eficiência energética

Os consumos energéticos do data center são um tema tanto de infraestrutura como dos próprios equipamentos de IT. Do lado da primeira, energia e arrefecimento são dois componentes de peso. Nuno Silva (PROEF IT) confirmou que “a fatura da eletricidade já faz parte do business plan das organizações”. No entanto, Maria de Lurdes Carvalho (Schneider Electric) sublinhou que é necessário ter uma visão desagregada dos consumos. “Se não olharmos de forma integrada para infraestrutura física e tecnológica, através de plataformas de gestão, e não tomarmos uma ação concertada, não conseguimos ter uma verdadeira atitude de eficiência energética”.

Do lado do IT, não existe uma preocupação particularmente expressiva com este ponto. “Provavelmente porque quem tem à sua responsabilidade estes temas não paga a fatura energética e vice-versa”, referiu Luís Rilhó (HPE). Nos últimos cinco anos, acrescentou, os próprios fabricantes de componentes – processadores, memórias, discos e storage – têm envidado alguns esforços “no sentido de reduzirem o consumo energético desses componentes e de manter a mesma performance”. Também a adoção de flash por parte das empresas, disse, tem tido um impacto indireto na questão energética, quer porque esta tecnologia consome menos quer porque produz menor libertação de calor.

Recomendado pelos leitores

Workplace solutions e computer vision em destaque na edição de abril do IT Channel
A FUNDO

Workplace solutions e computer vision em destaque na edição de abril do IT Channel

LER MAIS

Workplace Solutions: a oportunidade para aumentar a produtividade
A FUNDO

Workplace Solutions: a oportunidade para aumentar a produtividade

LER MAIS

Computer vision: olhos digitais ao serviço dos Parceiros
A FUNDO

Computer vision: olhos digitais ao serviço dos Parceiros

LER MAIS

IT CHANNEL Nº 106 ABRIL 2024

IT CHANNEL Nº 106 ABRIL 2024

VER EDIÇÕES ANTERIORES

O nosso website usa cookies para garantir uma melhor experiência de utilização.