Ao observar a evolução na construção de data centers desde o início dos anos 2000, que fases podem ser identificadas com base nas principais mudanças nos tipos de projetos? O que caracteriza cada fase?

Nos anos 2000, vivemos um período de forte expansão dos data centers impulsionado pelo crescimento acelerado da internet. Serviços de data center e colocation proliferaram até o "estouro" da bolha da internet, que colocou o mercado em compasso de espera por vários anos. Após esse período, o setor se reorganizou em torno de uma combinação de outsourcing, hosting e colocation, com foco em empresas e predominantemente operado no modelo de varejo, em que múltiplos clientes compartilhavam as mesmas instalações. Paralelamente, muitas empresas continuaram investindo em seus próprios data centers para acomodar o crescimento orgânico de suas operações de TI. Nesse período, tanto os data centers quanto os ambientes de TI eram pouco eficientes em termos de energia e custo, sendo o principal foco a disponibilidade e a resiliência das infraestruturas.

A partir de 2007, com a adoção massiva da virtualização e o surgimento dos serviços de nuvem, iniciou-se uma tendência gradual de retração dos investimentos em data centers empresariais. Os últimos grandes investimentos nesse segmento ocorreram entre 2010 e 2014. A partir desse ponto, a combinação da otimização proporcionada pela virtualização e a crescente adoção da nuvem pública reduziram os investimentos a níveis mínimos, basicamente limitados à manutenção da infraestrutura existente. Como consequência, muitos data centers empresariais construídos nesse período tornaram-se obsoletos e passaram a operar com baixa taxa de utilização.

Por outro lado, o crescimento acelerado da computação em nuvem criou uma nova dinâmica de demanda por colocation em grande escala, voltada principalmente para os provedores de nuvem pública. Esse movimento impulsionou um crescimento significativo do mercado de data centers, sustentando uma taxa de crescimento composta superior a 10% ao ano por mais de uma década.

Mais recentemente, a chegada do ChatGPT e de outros modelos de IA generativa baseados em LLMs (Large Language Models) gerou uma nova onda de demanda por infraestrutura de data centers. O mercado, que já vinha aquecido, agora se vê pressionado ao limite de sua capacidade em diversas frentes: geração e distribuição de energia, fornecimento de componentes e construção de novas instalações. As projeções indicam que o crescimento do setor poderá variar entre 20% e 35% ao ano na próxima década, caso as tendências atuais se mantenham. Esse crescimento acelerado cria um gargalo na capacidade do mercado de atender à demanda, resultando em um déficit projetado de até 13 GW de capacidade nos EUA até o final da década. Ou seja, o modelo atual claramente chegou ao seu limite.

Com a diversidade de tipos e tamanhos de data centers atualmente, como você vê a evolução em termos de construção para atender a diferentes necessidades e modelos de negócios?

Saímos de um cenário dominado por data centers corporativos ou de outsourcing de baixa potência para infraestruturas de maior densidade e escala muitas vezes superiores, para atender às demandas da computação em nuvem. O consumo de energia, que já havia dobrado ou triplicado nesse processo, agora entra em uma nova fase, com mega instalações que ultrapassam centenas de megawatts e capacidades individuais de gabinetes que podem atingir centenas de kW. Esses são avanços disruptivos na forma como os data centers são projetados, nos níveis de eficiência esperados e nas tecnologias necessárias para sustentá-los.

Além disso, a velocidade da mudança é impressionante: a cada seis meses, novos parâmetros são estabelecidos, exigindo padrões ainda mais agressivos de potência e refrigeração.

Diante desse cenário, dois fatores se tornam fundamentais: flexibilidade, para se adaptar a demandas em constante evolução, e a necessidade de pensar grande, mas agir de forma granular. Isso implica adotar uma abordagem construtiva que permita um modelo "future-proof", onde uma mesma instalação possa suportar implantações modulares e graduais, ajustando-se continuamente a requisitos mais exigentes sem comprometer sua operação.

O uso de componentes modulares e um design concebido com esses princípios em mente são essenciais para mitigar riscos e garantir que as instalações sejam capazes de acompanhar essa constante evolução.

Como a sustentabilidade era abordada nos projetos de data centers no início dos anos 2000, e como sua crescente importância transformou o design e a construção dos projetos atuais?

Na época, o foco principal era a eficiência energética, embora houvesse uma abordagem significativamente mais permissiva em relação ao consumo de energia. Isso era compreensível, pois os data centers operavam em escalas muito menores, tanto em tamanho quanto em demanda elétrica. Era comum – e ainda é, em muitos casos – encontrar data centers corporativos ou de colocation com um índice de PUE (Power Usage Effectiveness) superior a 2. Isso significa que, para cada 1 watt entregue à TI, outros 1 ou mais eram consumidos exclusivamente por sistemas de suporte, como refrigeração e UPS.

Atualmente, a exigência por eficiência energética é muito mais rigorosa, impulsionada pelo crescimento acelerado do consumo de energia nos data centers. Um data center moderno pode atingir um PUE de 1.2, dependendo de seu design e localização. Além disso, a sustentabilidade passou a ser um tema central, ampliando o foco para outros indicadores, como o WUE (Water Usage Effectiveness), que mede a eficiência no uso da água, e o CUE (Carbon Usage Effectiveness), que avalia as emissões de carbono associadas à construção e operação dos data centers.

Essa mudança de paradigma é essencial, pois a participação dos data centers no consumo global de energia, que hoje gira em torno de 1,5%, pode chegar a alarmantes 21% até 2030, segundo algumas projeções. Isso os torna um fator crítico na busca por um equilíbrio sustentável entre avanço tecnológico e impacto ambiental.

Que mudanças você destacaria no tempo necessário para a construção de data centers ao longo das décadas? Que aspectos influenciaram essas mudanças?

Infelizmente, a velocidade de construção de data centers segue uma trajetória oposta à desejada. A crescente demanda — agora ainda mais impulsionada pela inteligência artificial — tem gerado uma pressão crescente sobre as cadeias de suprimentos, a distribuição de energia e a disponibilidade de mão de obra qualificada para o design, construção e operação dessas infraestruturas. Esses desafios levam tempo para serem superados, pois, por exemplo, não é possível formar rapidamente um número suficiente de profissionais capacitados para atender à demanda.

Acreditamos que uma das principais soluções para esse problema está na industrialização de componentes e na modularidade, permitindo implantações granulares em um modelo "just in time". Essa abordagem otimiza o CAPEX e melhora a alocação de recursos. A industrialização possibilita a concentração de atividades críticas, reduzindo a necessidade de mão de obra no local da construção e garantindo maior elasticidade na capacidade produtiva. Além disso, simplifica a formação de profissionais, pois a produção, o recrutamento e a capacitação podem ser centralizados e potencializados.

Essa metodologia também permite a paralelização dos processos construtivos, possibilitando que atividades como licenciamento, preparação do terreno e obras básicas de infraestrutura ocorram simultaneamente à fabricação dos principais elementos do data center em um ambiente industrializado. Com isso, o tempo necessário para implantação pode ser reduzido drasticamente. Em nossa experiência, essa abordagem pode diminuir o tempo total de construção em até 60%.

Com o crescimento da IA e do processamento de alto desempenho, quais novos desafios surgem para a construção de data centers, e como o setor tem se preparado para enfrentá-los?

Precisamos construir instalações muito maiores, com capacidade significativamente superior e em prazos cada vez mais curtos. Essa é uma equação desafiadora, pois impõe múltiplos obstáculos simultaneamente. O aumento exponencial na escala das instalações traz desafios construtivos, de fornecimento de componentes e de evolução tecnológica.

Os novos requisitos de potência exigem uma reavaliação profunda da arquitetura dos data centers, tanto na distribuição de energia quanto na refrigeração de ambientes onde uma única fileira de racks pode concentrar vários megawatts. Tecnologias relativamente novas, como refrigeração líquida aplicada diretamente aos chips, estão se tornando essenciais para lidar com essa densidade térmica. Além disso, soluções ainda mais disruptivas estão em discussão, como o uso de pequenos reatores nucleares modulares para suprir a crescente demanda energética dessas infraestruturas.

O que é certo é que os métodos tradicionais chegaram ao seu limite. O setor precisa de novas abordagens para continuar evoluindo. Essa é a nossa aposta com a criação da MODULAR: acreditamos que a industrialização e a construção modular de data centers podem não resolver todos os desafios do setor, mas serão decisivas para superar muitos dos gargalos enfrentados hoje.