banner
Centro de Noticias
Componentes de primera calidad, gestión de calidad precisa.

Ethernet de 100 Gbps

Aug 19, 2023

¿Necesita Ethernet de 100 Gbps? Las preguntas reales parecen ser si está dispuesto a pagar por ello y, dado el crecimiento del tráfico dentro del centro de datos, si es inevitable.

Disfrute de este artículo, así como de todo nuestro contenido, incluidas las guías electrónicas, noticias, consejos y más.

Olvidó proporcionar una dirección de correo electrónico.

Esta dirección de correo electrónico no parece ser válida.

Esta dirección de correo electrónico ya está registrada. Por favor Iniciar sesión.

Ha superado el límite máximo de caracteres.

Proporcione una dirección de correo electrónico corporativa.

Marque la casilla si desea continuar.

Marque la casilla si desea continuar.

Al enviar mi dirección de correo electrónico, confirmo que he leído y aceptado los Términos de uso y la Declaración de consentimiento.

El estándar fue ratificado en 2010 como IEEE 802.3ba. Fue inventado por Bob Metcalfe y Dave Boggs en Xerox PARC en 1973 y ofrecía lo que entonces era una enorme velocidad de 2,94 Mbps.

Avance rápido 40 años y 1 Gbps Ethernet (1 GbE) es común en la LAN, los chips que alimentan los puertos Ethernet son eficientes y casi gratuitos, y 1 GbE es lo suficientemente bueno para las necesidades de la mayoría de los usuarios.

En el centro de datos, sin embargo, es una historia diferente. Según Cisco, el tráfico IP del centro de datos global casi se cuadruplicará en los próximos cinco años, creciendo a una tasa de crecimiento anual compuesta del 31%.

Hay una serie de razones para esto, pero un gran crecimiento tanto en los volúmenes como en los tipos de tráfico que fluyen a través del centro de datos juega el papel más importante. A medida que los datos se vuelven más ricos y crecen en tamaño, debido al aumento de los dispositivos móviles siempre activos, los escritorios empresariales centralizados o la explosión de la computación en la nube, por nombrar algunos, se siente más presión en el back-end.

La virtualización también ha cambiado profundamente los patrones de datos de los centros de datos. Tradicionalmente, el tráfico consistía en fuentes externas que realizaban solicitudes desde un servidor dentro del centro de datos, seguidas de la respuesta del servidor. Este modelo condujo a redes de tres niveles, con capas de acceso, agregación y conmutación central que se convirtieron en la topología de red predeterminada del centro de datos, y la densidad de tráfico fue más baja en la capa de acceso, aumentando a medida que se acercaba al núcleo.

Todo esto ha cambiado. El informe del índice de nube global de Cisco mostró que el 76% del tráfico ahora permanece dentro del centro de datos. Gran parte del tráfico ahora se relaciona con la separación de funciones asignadas a diferentes servidores dentro de la instalación, como aplicaciones, almacenamiento y bases de datos. Estos luego generan tráfico para respaldo y replicación y tráfico de lectura/escritura en todo el centro de datos.

Las tecnologías, como VMware vMotion, mueven máquinas virtuales por el centro de datos. La virtualización del almacenamiento, que entre otros atributos hace que varias matrices aparezcan como una sola entidad, también aumenta los volúmenes de transferencias automatizadas de grandes cantidades de datos en toda la instalación. Luego, el procesamiento paralelo divide las tareas en partes y las distribuye.

Las páginas web de hoy en día son más complejas que las solicitudes de fuente a servidor y viceversa, lo que lleva a accesos de datos para una sola página web desde múltiples ubicaciones dentro del centro de datos.

Además, según Shaun Walsh, vicepresidente senior de marketing de Emulex, las aplicaciones como el comercio financiero de alta velocidad, el análisis y la clasificación de transacciones de tarjetas de crédito están creando muchas comunicaciones pequeñas que permanecen dentro del rack y necesitan conectividad de alta velocidad.

Las redes de los centros de datos están comenzando a modificarse para adaptarse a estos patrones de tráfico cambiantes. En lugar de una arquitectura diseñada para llevar el tráfico de los servidores al borde de la red y viceversa, conocida como tráfico norte-sur, se están convirtiendo en estructuras, con todos los nodos interconectados, lo que permite un ancho de banda de alta velocidad para la conectividad este-oeste como Bueno.

Estos tejidos de red de centros de datos están impulsando la necesidad de grandes cantidades de ancho de banda adicional, según Clive Longbottom, fundador de la firma de analistas Quocirca.

"La necesidad de lidiar con el aumento del tráfico este-oeste significará que 100 GbE es la mejor manera de lidiar con la latencia en el centro de datos, siempre que se cuente con las herramientas adecuadas para garantizar que todo funcione de manera efectiva", dice.

Velocidades de Ethernet en uso

"Con el tiempo, se convertirá en el núcleo para reemplazar 10 GbE, y 10 GbE se convertirá en el reemplazo de 1 GbE [tecnología de cascada estándar]", agrega Longbottom.

Entonces, los nuevos patrones de tráfico y estructuras de red están impulsando la demanda de ancho de banda, pero ¿las tecnologías de red están listas para enfrentar este desafío? Cuando se trata de servidores, la respuesta es no.

Según el organismo de estándares IEEE en su informe de evaluación de ancho de banda Ethernet de conexiones industriales en 2012, se está produciendo un gran cambio de 1 GbE Ethernet en el centro de datos a 10 Gbps. Su investigación mostró en 2011 que los puertos de servidor de 10 Gbps representaban alrededor del 17 % del total, pero se pronostica que crecerán hasta el 59 % en 2014 a medida que se conecten más servidores con buses PCIe 3.0.

En otras palabras, 10 GbE ya está aquí, y puede encontrar muchos servidores con cuatro puertos de 10 GbE como estándar.

Sin embargo, dado que cada servidor host de virtualización necesita un mínimo de dos puertos Ethernet por motivos de redundancia, para pasar a 100 GbE a fin de ofrecer el ancho de banda completo en ambos puertos, se necesitará otra generación de bus de servidor con mayor ancho de banda.

El informe de IEEE decía: "La próxima generación de PCIe admitirá 100 Gbps en una configuración x8, pero el futuro de PCIe se desconocía al momento de escribir esta evaluación. Se sugirió que PCIe 4.0 habilitaría puertos de servidor Ethernet duales de 100 Gbps a partir de 2015 ."

El PCI-SIG, el organismo rector de PCIe, respalda esta evaluación. "Se espera que las especificaciones finales de PCIe 4.0, incluidas las actualizaciones de las especificaciones del factor de forma, estén disponibles a fines de 2015", dice.

Los servidores de gama alta de hoy en día incluyen puertos de 10 GbE, pero el IEEE proyecta que los 40 GbE los reemplazarán el próximo año, con 100 GbE apareciendo alrededor de 2015. Sin embargo, Walsh de Emulex dice que incluso PCIe 4.0 no será adecuado para las necesidades de 100 GbE.

"Intel está hablando de un nuevo reemplazo para PCIe 4.0 que no llegará antes de 2017-18", dice, que manejará mejor los requisitos de las tecnologías de red de mayor ancho de banda.

Pero el IEEE se preocupa principalmente por los requisitos de ancho de banda, menos si esa necesidad puede ser satisfecha por una sola tecnología. Hoy en día, los racks de servidores entregan y reciben de forma rutinaria cientos de gigabits por segundo mediante la agregación, generalmente de enlaces de 10 GbE o 40 GbE.

Agregar tecnología de 40 GbE está plagado de "trampas", según Tim Boerner, ingeniero senior de redes del Centro Nacional de Aplicaciones de Supercomputación (NCSA) de la Universidad de Illinois.

La NCSA utiliza sus recursos informáticos para realizar cálculos como simular cómo chocan y se fusionan las galaxias, cómo se pliegan las proteínas y cómo se mueven las moléculas a través de la pared de una célula.

El proyecto Blue Waters de la NCSA alberga unos 300 TB y necesita transferir 300 Gbps de los clústeres de servidores a través de una estructura Ethernet a un sistema de archivo oa un destino externo. Utiliza la tecnología de 40 GbE de Extreme Networks y el protocolo de agregación de enlaces (LACP) para mover sus grandes volúmenes de datos.

Boerner dice que la agregación puede ofrecer "buenos números [de rendimiento] con suficiente transferencia", pero "lo que se encuentra no es un límite de la red, sino la dificultad de hacer malabares con la forma en que se asigna la E/S a diferentes CPU y ranuras PCI".

A pesar de las dificultades asociadas con la agregación, la NCSA tomó la decisión consciente de no optar por 100 GbE. "Sería un gasto enorme optar por 100 GbE y tener todos los periféricos en ese sistema", dice Boerner.

Considera que el hecho de que la NCSA sea un departamento de investigación es una ventaja al establecer este tipo de redes. "Tenemos muchas habilidades en el ajuste del rendimiento y puede llevar tiempo alcanzar esos objetivos de una manera que una empresa podría no encontrar rentable. Habiendo venido de la industria privada, sé que quieren que simplemente se conecte y funcione". él dice.

"Estos enlaces de conmutador a conmutador, el acceso a la agregación y la agregación al núcleo, es donde veremos la mayor parte del uso de 40 GbE y 100 GbE en el corto y mediano plazo", dice Brian Yoshinaka, ingeniero de marketing de productos de la División de Acceso LAN de Intel. .

Los principales proveedores de redes, como Cisco, Juniper y Brocade, ya venden conmutadores y enrutadores con capacidad de 100 GbE, principalmente destinados a estructuras de centros de datos para usuarios como operadores de telecomunicaciones y proveedores de nube. Las grandes empresas ahora tienen las herramientas para crear redes de tejido y, a medida que existe la tecnología, es posible construir una red de alta velocidad.

Pero los puertos de switch de 40 GbE cuestan $ 2500 cada uno, en promedio, lo que hace que 100 GbE esté lejos de ser una opción económica.

Una alternativa es la agregación de enlaces, una técnica utilizada por muchos, incluido el Centro Nacional de Aplicaciones de Supercomputación (NCSA) de la Universidad de Illinois. Una limitación de la agregación es que todos los puertos físicos agrupados deben residir en el mismo conmutador, aunque existen formas de evitarlo. Sin embargo, hay otro problema más fundamental.

"A corto plazo, las redes fabric pueden ocultar la necesidad [de 100 GbE] agregando enlaces para crear el ancho de banda necesario", dice Longbottom. "Aquellos que no están mirando la tela probablemente no sean del tipo que necesitarán 100 Gbps en el corto plazo.

"Pero si se apega a Ethernet Cat6, hay una cantidad limitada de puertos que caben en un espacio, y si usa 10 de estos para crear el equivalente a un puerto, se vuelve costoso en espacio, cables y energía para transportar en ese camino", dice.

Las empresas recién ahora están comenzando a comprar puertos de 10 Gbps en cantidades significativas, por lo que es probable que los precios de los puertos más rápidos se mantengan altos en el futuro cercano. Además, el costo de los periféricos y las tecnologías, como los inspectores de paquetes y las herramientas de administración, también se mantendrá alto y deberá ser compatible con 100 GbE.

Por lo tanto, 40 GbE es una ruta más rentable a mediano plazo. Además, los administradores de redes de centros de datos pueden esperar que la empresa subcontrate volúmenes significativos de tráfico a una variedad de proveedores de nube, liberándolos de la necesidad de pensar y pagar costosas actualizaciones de red.

Es probable que aquellos que opten por 100 GbE se hayan armado con un caso financiero muy poderoso para invertir en la tecnología en esta etapa.

¿Necesita Ethernet de 100 Gbps? Las preguntas reales parecen ser si está dispuesto a pagar por ello y, dado el crecimiento del tráfico dentro del centro de datos, si es inevitable. Clive Longbottom