O que o Google pode ensinar sobre o futuro dos data centers?

O que o Google pode ensinar sobre o futuro dos data centers?

Com avalanche de dados gerados a partir da internet das coisas, infraestrutura terá de se adaptar

Existem muitas noções abstratas sobre o que é o futuro da infraestrutura. A adoção de modelos de nuvem híbrida, containers e arquiteturas de microsserviços são apenas estágios iniciais de preparação para os data centers do amanhã.

As maiores empresas já experimentaram o poder do volume de dados. E elas evoluíram para atender às demandas dessas necessidades. À medida que mais organizações começam a perceber o poder do Big Data, elas podem aprender lições valiosas com a evolução das gigantes globais como Google, Facebook e Apple.

Segundo observou em texto no site TechCrunch, Sandeepan Banerjee, vice-presidente sênior de engenharia da ClusterHQ, nos últimos anos, ocorreu uma mudança em torno da infraestrutura crítica, como processamento de big data, agilidade precisa, disponibilidade 24/7, entrega mais rápida, envolvimento do cliente por meio de mecanismos sociais, comunicação em tempo real e assim por diante. “E nós estamos à beira de novas tecnologias que vão exigir ainda mais recursos de infraestrutura, como internet das coisas (IoT, na sigla em inglês) e realidade virtual”, comentou.

No campo de data center, notavelmente o Google é referência. A gigante de internet roda suas informações em containers. Nesse sentido, qualquer processo de pesquisa no Google envolve um projeto de container. Containers, por natureza, têm menor necessidade de tempo de execução.

A gigante usa um sistema operacional interno de cluster, o Borg, para gerenciar tanto serviços em lote quanto individualmente. Como mais e mais aplicativos foram desenvolvidos para rodar em cima de Borg, Banerjee assinala que equipes de aplicativos e infraestrutura do Google desenvolveram ferramentas e serviços para ele.

Os sistemas fornecem mecanismos para configurar e atualizar postos de trabalho, prevendo necessidades de recursos, empurrando dinamicamente arquivos de configuração para executar trabalhos, descobre serviços e balanceamento de carga; realiza autoescala e gerencia o ciclo de vida da máquina, para citar apenas algumas de suas funcionalidades.

Como notou o executivo, os desenvolvedores da gigante constroem APIs de gerenciamento ao redor de containers em vez de máquinas, mudando o foco dos centros de dados de máquina para aplicação. Isso libera desenvolvedores de aplicativos para focar em detalhes específicos de máquinas e sistemas operacionais.

O futuro dos data centers está próximo, disse o executivo. Dados gerados por sensores em breve vão inundar centros de dados. “A necessidade de processar essa avalanche em tempo real – não apenas para carros autônomos, mas para todos os setores da economia – vai estimular a necessidade de novos graus de agilidade”, refletiu. Por isso que ele acredita que o ambiente vai ser cada vez mais híbrido: AWS, Google Cloud, Azure caminharão lado a lado de grandes nuvens privadas.

Comentários

Notícias Relacionadas

Copyright 2017 IT Mídia. Todos os direitos reservados.
É proibida qualquer forma de reutilização, distribuição, reprodução ou publicação parcial ou total deste conteúdo sem prévia autorização da IT Mídia.