400G é a nova geração da infraestrutura de nuvem. Aumentando em quatro vezes a velocidade máxima da transferência de dados em redes 100G, a tecnologia 400G responde à gigantesca demanda por largura de banda enfrentada pelos provedores de infraestrutura de rede hoje. Sistemas abertos, inteligência artificial (IA), aprendizado de máquina e armazenamento na nuvem contribuem para o crescimento exponencial do tráfego. Conforme data centers de grande porte fazem a transição para infraestruturas mais escaláveis, a conectividade de alta capacidade torna-se essencial para acompanhar o aumento do número de usuários, dispositivos e aplicativos.
Para realmente entender o que estimula a necessidade da tecnologia 400G, é importante diferenciar as várias formas como ela pode ser definida e usada quando se fala em redes de data center.
- Em geral, 400G refere-se a uma solução que oferece capacidade de 400G em um único comprimento de onda 400G. O termo é intercambiável com 400GbE e 400Gb/s, dependendo do contexto.
- 400GbE refere-se à próxima taxa de capacidade em interfaces Ethernet que pode viajar por um único link. Ela é baseada no padrão aprovado IEEE 802.3bs que as camadas físicas do 400GbE, parâmetros de gerenciamento e de Media Access Control (MAC) precisam cumprir.
- 400Gb/s refere-se à velocidade de transferência de dados. Nesse caso, 400 bilhões de bits de informação viajam por um único comprimento de onda óptico a cada segundo.
O Data Center é a unidade funcional da nuvem. Esse formato de armazenar, processar e analisar dados hoje tem posição predominante no cenário da comunicação – pouquíssimas empresas ou usuários não possuem alguma aplicação ou interação com a nuvem. E essa importância é o motivo pelo qual os data centers sofrem tanta pressão por aumento de velocidade, performance e disponibilidade.
No momento atual, a velocidade que mais cresce em adoção nos ambientes de data center é o 100 Gb/s. Isso vale tanto para as conexões entre roteadores, switches e servidores nos racks e áreas internas (conhecidas como intra-datacenter) como para as conexões entre data centers separados geograficamente (inter-datacenter), seja no mesmo campus ou em cidades diferentes.
A demanda por banda, decorrente de aplicações de vídeo, jogos, eventos online, Inteligência Artificial, machine learning etc, não para de crescer e pressiona as velocidades continuamente. Por isso, não irá demorar muito para a próxima onda de velocidade tomar o lugar do 100G. Os Hyperscale Data Centers já estão instalando interfaces de 400 Gb/s (400G) e, em breve, essa velocidade alcançará também os data centers corporativos.
Conexões com cabos metálicos para 400G serão de curtíssima distância – entre 3 e 5 metros -, principalmente para conexões dentro de racks ou adjacentes. Por essa razão, vamos tratar de conectividade óptica, que oferece alcance maior, viabilizando conexões inclusive entre cidades.
Uma característica recorrente em muitos data centers é a mudança constante. Seu dia-a-dia é marcado por muitas trocas de portas, acomodação de novos serviços e alterações de velocidades, transceivers e topologias.
Nesse momento, o planejamento prévio faz grande diferença. Ou o operador sabe que existe porta e velocidade disponíveis para aquela conexão, ou torce para uma boa notícia. Uma atualização de velocidade ou topologia pode demorar alguns minutos ou alguns dias, caso demande compra de material, instalação e testes.
Os data centers estão passando, atualmente, pela migração da plataforma 10G para 40G/100G e enfrentam problemas semelhantes, seja por falta de planejamento ou por falta de orientação do projeto original para a flexibilidade e novas redes. Entre as dificuldades estão a falta de fibras e conectividade disponíveis, pois as interfaces 40G e 100G possuem alternativas com transmissão paralela que requerem 8 fibras terminadas em conectores MPO (Multi-fiber Push On). Ao mesmo tempo, algumas instalações precisam manter a coexistência das novas redes com sistemas legados mais lentos, ou ainda baseados em protocolos diferentes como Ethernet e Fibre-channel. Não basta a capacidade de alcançar velocidades maiores; é preciso flexibilidade para acomodar o investimento prévio.
A topologia dos data centers também mudou. A topologia hierárquica tradicional – com equipamentos centrais de grande capacidade (core) ligados a agregadores e esses aos equipamentos de borda – ainda é muito popular, mas vem sendo substituída em diversos projetos pela topologia spine-leaf, desenvolvida para os Hyperscale Data Centers. Ao mesmo tempo em que aumenta a confiabilidade e disponibilidade da rede, essa nova topologia permite adições ou reduções de maneira mais simples. As topologias de cabeamento simplistas acabam revelando suas limitações nos casos que requerem várias conexões redundantes, paralelas ou, ainda, quando é necessária uma atenuação pequena por conta das maiores velocidades, ou uso em série de enlaces ópticos.
Em um futuro breve, esse mesmo fenômeno vai acontecer na migração para 400G. Data centers que estão sendo planejados hoje devem considerar aplicações nessa velocidade, para proteger seu investimento. O impacto é direto no custo total de propriedade (TCO) e no ritmo de aquisição de negócios no decorrer da vida útil dessas instalações.
Estes são os objetivos principais do planejamento de um data center pronto para 400G:
● Colocar o data center em uma posição privilegiada para a captação de novos negócios, uma vez que está pronto para a maior velocidade disponível e, assim, para praticamente qualquer tecnologia;
● Reduzir o TCO, em função da maior qualidade do investimento (CAPEX) e da redução do custo de operação (OPEX), já que as adições, mudanças e alterações são mais fáceis, rápidas e assim menos onerosas.
● Preparar qualquer tipo de data center para atender às principais tendências de aplicações que exigem baixa latência e/ou alto tráfego de dados, como cloud computing, gaming, IoT, 5G, redes sociais, OTT/vídeo streaming, entre outras.
Mas quais considerações devemos fazer ao planejar um data center para que, em um futuro próximo, tenha capacidade de transportar 400G? Eis alguns fatores-chave para um data center pronto para 400G:
● Desenho adequado: a arquitetura do data center deve considerar o funcionamento de todas as interfaces conhecidas em 400G padronizadas e, na medida do possível, as que estão em desenvolvimento (dependendo do seu grau de maturidade nos organismos normativos). Essa cobertura sozinha não significa um bom projeto. Flexibilidade é igualmente importante, principalmente para garantir o funcionamento concomitante de tecnologias atuais e mais antigas. É importante que o data center esteja apto a transportar 400G Ethernet paralelamente ao Fibre-channel 8GFC, por exemplo. A aderência ao tipo de topologia também é importante, bem como a avaliação das possibilidades de conexões, que podem requerer o uso de componentes de baixíssimas perdas.
● Serviços: qualquer sistema de comunicação depende de um tripé formado por projeto, produtos e serviços. Uma falha em um desses pilares, mesmo que os demais sejam muito bons, pode colocar em risco toda a comunicação. Levando isso em consideração, é importante que desde o serviço de projeto e consultoria, a instalação até o treinamento e suporte à operação sejam executados de maneira adequada e por pessoal treinado e certificado. Sem os serviços adequados, produtos e sistemas não se transformam em uma solução e, nos ambientes mais sofisticados, as dificuldades podem ser muito maiores;
● Sistemas e soluções: o projeto adequado combinado com serviços profissionais pode trazer uma vantagem maior quando considera sistemas e soluções de alta performance. Atualmente, as redes têm requerido níveis de perdas ópticas muito baixos e as instalações, maior flexibilidade e topologias diversas. Várias opções de conexão estão sendo disponibilizadas pelos sistemas de comunicação, visando robustez e confiabilidade, e todos esses fatores impactam diretamente na escolha dos sistemas responsáveis pela conectividade. Sistemas de cabeamento óptico híbridos – baseados em fibras ópticas multimodo OM4 ou OM5 e monomodo terminados em conectores MPO de baixas perdas – são a base para um sistema habilitado a transportar 400G. Deve-se somar a isso a possibilidade de trabalhar com alta densidade de conexões, impacto direto de topologias redundantes e novos serviços que requerem altíssima disponibilidade.
É importante salientar que, quando tratamos de 400G, estamos considerando essencialmente as interfaces internas ou com distâncias relativamente curtas – não abordamos as opções de redes de transporte, que possuem características de transmissão mais específicas para esse uso e podem levar Terabits por segundo em velocidade agregada, usando principalmente métodos de transmissão coerente e DWDM. Também é importante ressaltar que várias interfaces proprietárias estão disponíveis com velocidades diferentes, que podem ser adequadas para atender uma necessidade específica, não coberta por normas. A vantagem de interfaces padronizadas é a garantia de interoperabilidade, além da oferta de mais opções no mercado – o que reduz o custo da operação. A interface Ethernet (padronizado pelo IEEE no subgrupo 802.3) segue sendo a mais popular de todas nesse ambiente.
Portanto, estar pronto para a próxima geração de redes não significa apenas escolher o produto certo. Significa, também, projetar e instalar da maneira adequada, de maneira a cobrir o máximo de aplicações e necessidades previstas para o futuro, com a melhor performance técnica e eficiência de custo.
Fonte: Furukawa