Miniatura de Napatech

Las IPU reducen la sobrecarga computacional en las cargas de trabajo de almacenamiento

Napatech integra la IPU F2070X basada en Intel® IPU con su software Link-Storage* para descargar cargas de trabajo NVMe sobre TCP, lo que reduce las sobrecargas computacionales.

Resumen

  • Los centros de datos empresariales y en la nube están adoptando cada vez más la tecnología de almacenamiento NVMe/TCP debido a sus ventajas de desempeño, latencia, escalabilidad, gestión y uso de recursos. Sin embargo, la implementación de las cargas de trabajo que requiere el iniciador de almacenamiento en la CPU host del servidor conlleva sobrecargas informáticas significativas y limita la cantidad de núcleos de CPU disponibles para ejecutar servicios y aplicaciones.

  • La solución integrada de hardware y software de Napatech, que comprende la pila de software Link-Storage que se ejecuta en la IPU F2070X, aborda este problema mediante la descarga de las cargas de trabajo de almacenamiento de la CPU host a la IPU, al mismo tiempo que mantiene la compatibilidad total del software a nivel de aplicación.

  • La solución de descarga de almacenamiento de Napatech libera núcleos de la CPU host que, de lo contrario, las funciones de almacenamiento consumirían. Su desempeño es significativamente mejor que el de una implementación basada en software, lo que reduce el consumo de energía, el CAPEX y el OPEX. También introduce el aislamiento de seguridad en el sistema, lo que aumenta la protección contra ciberataques.

author-image

Por

logotipo de nvm expressEste resumen de la solución explica cómo la solución integrada de hardware y software de Napatech descarga las cargas de trabajo de almacenamiento NVMe/TCP de la CPU host a una IPU, lo que reduce significativamente el CAPEX, el OPEX y el consumo de energía. También introduce el aislamiento de seguridad en el sistema, lo que aumenta la protección contra ciberataques.

¿Qué es NVMe sobre TCP?

NVMe/TCP es una tecnología de almacenamiento que permite el acceso a los dispositivos de almacenamiento NVMe (memoria exprés no volátil) a través de una red con tejidos estándar de centro de datos. Consulte la Figura 1.

Los centros de datos empresariales y en la nube modernos están adoptando cada vez más NVME/TCP debido a las atractivas ventajas que ofrece en comparación con los protocolos de almacenamiento más antiguos, como iSCSI (Interfaz de Internet para pequeños sistemas informáticos) y Fiber Channel:

Figura 1. Desglose de la arquitectura de almacenamiento

 

  • Mayor desempeño: NVMe está diseñada para aprovechar al máximo las unidades de estado sólido (SSD) modernas y de alta velocidad basadas en NAND, y ofrece tasas de transferencia de datos significativamente más rápidas que los protocolos de almacenamiento tradicionales. NVMe/TCP amplía estos beneficios a un entorno de almacenamiento en red, lo que permite a los centros de datos acceder a un almacenamiento de alto desempeño a través de la estructura.

  • Menor latencia: la naturaleza de baja latencia de NVMe/TCP es fundamental para las aplicaciones de uso intensivo de datos y las cargas de trabajo en tiempo real. NVMe/TCP puede ayudar a reducir las latencias durante el acceso al almacenamiento y a mejorar el desempeño general de las aplicaciones al reducir la sobrecarga de comunicación y al eliminar la necesidad de conversiones de protocolo.

  • Escalabilidad: los centros de datos usualmente se encargan de las implementaciones de almacenamiento a gran escala, y NVMe/TCP permite una escalabilidad fluida al proporcionar una solución flexible y eficiente para acceder al almacenamiento a través de una red. A medida que la cantidad de dispositivos NVMe aumenta, los centros de datos pueden mantener altos los niveles de desempeño sin cuellos de botella significativos.

  • Grupo de almacenamiento compartido: NVMe/TCP permite la creación de grupos de almacenamiento compartidos a los que varios servidores y aplicaciones pueden acceder simultáneamente. Esta arquitectura de almacenamiento compartido el uso de recursos y simplifica la gestión del almacenamiento, lo que permite reducir considerablemente los costos.

  • Compatibilidad con infraestructuras heredadas: los centros de datos suelen presentar infraestructuras ya existentes basadas en redes Ethernet, InfiniBand o Fibre Channel. NVMe/TCP les permite aprovechar sus inversiones en estructura, al mismo tiempo que integran la más reciente tecnología de almacenamiento basada en NVMe, sin necesidad de revisar toda la infraestructura de red.

  • Uso eficiente de los recursos: NVMe/TCP permite un mejor uso de los recursos al reducir la necesidad de recursos de almacenamiento dedicados en cada servidor. Varios servidores pueden acceder a los dispositivos de almacenamiento NVMe que se comparten a través de la red, lo que optimiza el uso de los costosos recursos de almacenamiento NVMe.

  • Preparación para el futuro: a medida que los centros de datos evolucionan y adoptan tecnologías de almacenamiento más rápidas, NVMe/TCP ofrece un enfoque prospectivo para el acceso al almacenamiento, lo que garantiza que las redes de almacenamiento puedan seguir el ritmo de las crecientes demandas de las aplicaciones y cargas de trabajo modernas.

En resumen, NVMe/TCP ofrece una solución de almacenamiento potente y flexible para centros de datos, lo que permite un alto desempeño, una baja latencia y un uso eficiente de los recursos en un entorno de almacenamiento compartido y escalable.

Limitaciones de las arquitecturas de almacenamiento solo de software

A pesar de los atractivos beneficios de NVMe/TCP para el almacenamiento, los operadores de centros de datos deben ser conscientes de las significativas limitaciones asociadas a una implementación en la que todos los servicios iniciadores de almacenamiento requeridos se ejecutan en el software en la CPU host. Consulte la Figura 2.

almacenamiento en red
Figura 2. Almacenamiento en red basado en software

 

En primer lugar, se presenta un riesgo de seguridad a nivel del sistema si el software de virtualización del almacenamiento, el hipervisor o el conmutador virtual (vSwitch) se ven comprometidos durante un ciberataque.

En segundo lugar, no se puede garantizar el aislamiento completo entre las cargas de trabajo del inquilino. Una única arquitectura aloja las aplicaciones y los datos de varios clientes en un entorno con varios inquilinos. El efecto “vecino ruidoso” se produce cuando una aplicación o máquina virtual (VM) usa la mayor parte de los recursos disponibles y perjudica el desempeño del sistema para otros inquilinos que se encuentran en la infraestructura compartida.

Por último, se requiere una parte significativa de los núcleos de la CPU host para ejecutar los servicios de infraestructura, como el software de virtualización del almacenamiento, el hipervisor y el vSwitch. Esto reduce la cantidad de núcleos de CPU que pueden monetizarse para las VM, los contenedores y las aplicaciones. Los informes indican que los servicios de infraestructura suelen consumir entre el 30 % y el 50 % de los recursos de CPU del centro de datos.

En un subsistema de almacenamiento de alto desempeño, es posible que la CPU host sea necesaria para ejecutar varios protocolos, como el Protocolo de control de transmisión (TCP), el Acceso directo remoto a la memoria a través de Ethernet convergente (RoCEv2), InfiniBand y Fibre Channel. Cuando la CPU host se utiliza en gran medida para ejecutar estos protocolos de almacenamiento y otros servicios de infraestructura, la cantidad de núcleos de CPU disponibles para las aplicaciones del inquilino se reduce significativamente. Por ejemplo, una CPU de 16 núcleos solo podría ofrecer el desempeño de una CPU de 10 núcleos.

Por estas razones y otras, una arquitectura solo de software presenta importantes desafíos empresariales y técnicos para el almacenamiento del centro de datos.

Solución con tecnología IPU para la descarga de almacenamiento

La descarga de la carga de trabajo NVMe/TCP a una IPU, además de otros servicios de infraestructura, como el hipervisor y vSwitch (véase la Figura 3), aborda las limitaciones de una implementación solo de software y ofrece importantes beneficios a los operadores de centros de datos:

 

  • Uso de la CPU: la comunicación NVMe/TCP implica la encapsulación de los comandos y datos NVMe dentro del protocolo de transporte TCP. La CPU host procesa estas tareas de encapsulación y desencapsulación sin necesidad de descarga. La descarga de estas operaciones al hardware dedicado permite a la CPU centrarse en otras tareas esenciales, lo que mejora el desempeño general del sistema y el uso de la CPU.

  • Menor latencia: la descarga de las tareas de comunicación NVMe/TCP al hardware especializado puede reducir significativamente la latencia del procesamiento de los comandos de almacenamiento. Como resultado, las aplicaciones pueden experimentar tiempos de respuesta más rápidos y un mejor desempeño a la hora de acceder a los dispositivos de almacenamiento NVMe remotos.

  • Movimiento eficiente de datos: la descarga de tareas de aplicación que no son de CPU a aceleradores de hardware independientes permite que las operaciones de movimiento de datos se realicen de forma más eficiente que con una CPU de uso general. Puede gestionar grandes transferencias de datos y búferes con eficacia, lo que reduce las latencias y mejora el desempeño general.

  • Escalabilidad mejorada: la descarga de tareas NVMe/TCP mejora la escalabilidad en las implementaciones de almacenamiento a gran escala. Al liberar a la CPU de la tarea de gestionar la comunicación de red, el sistema puede admitir más conexiones y dispositivos de almacenamiento simultáneos sin necesidad de que la CPU intervenga.

  • Eficiencia energética: al descargar ciertas tareas en el hardware dedicado, se puede reducir el consumo de energía de la CPU host. Esta eficiencia energética puede ser de suma importancia en grandes entornos de centros de datos, donde el consumo de energía es una consideración importante.

almacenamiento desglosado para ipu
Figura 3. Almacenamiento desglosado habilitado para IPU​

 

Además de los beneficios mencionados anteriormente que se aplican a la carga de trabajo de almacenamiento NVMe/TCP, la arquitectura del sistema con tecnología IPU ofrece opciones de aislamiento de seguridad incremental, mediante las cuales los servicios de infraestructura se aíslan de las aplicaciones del inquilino. Esto garantiza que los servicios de vSwitch, hipervisor y almacenamiento no corran peligro durante un ciberataque lanzado por una aplicación de inquilino. Los servicios de infraestructura están protegidos, ya que el proceso de arranque de la IPU es seguro, mientras que la IPU actúa como la raíz de confianza para el servidor host.

Solución integrada de hardware y software de Napatech

Napatech ofrece una solución integrada a nivel de sistema para la descarga de almacenamiento del centro de datos, que comprende la pila de software Link-Storage de alto desempeño que se ejecuta en la IPU F2070X. Consulte la Figura 4.

Figura 4. Descarga de almacenamiento de Napatech que se ejecuta en la IPU F2070X

 

El software Link-Storage incorpora un amplio conjunto de funciones, entre las que se incluyen:

 

  • descarga completa de las cargas de trabajo NVMe/TCP del host a la IPU;

  • descara completa de las cargas de trabajo TCP del host a la IPU;

  • iniciador NVMe a TCP;

  • configuración de almacenamiento a través de la interfaz SPDK RPC (llamada a procedimiento remoto del kit de desarrollo de desempeño de almacenamiento);

  • compatibilidad multitrayecto con NVMe;

  • presentación de 16 dispositivos de bloque al host a través de la interfaz virtio-blk;

  • compatibilidad con controladores virtio-blk estándar en distribuciones comunes de Linux*;

  • aislamiento de seguridad entre la CPU host y la IPU, sin interfaces de red expuestas al host.

Además de Link-Storage, la F2070X también es compatible con el software Link-Virtualization, que proporciona un plano de datos virtualizado, descargado y acelerado, que incluye funciones como el OVS (Open vSwitch), la migración en vivo, la duplicación de VM a VM, la encapsulación/desencapsulación VLAN/VxLAN, el Q-in-Q, el equilibrio de carga RSS (escala del lado de recepción), la agregación de enlaces y la QoS (calidad de servicio).

Dado que la F2070X está basada en una FPGA y una CPU en lugar de ASIC, la funcionalidad completa de la plataforma se puede actualizar después de la implementación. Ya sea para modificar un servicio existente, agregar nuevas funciones o ajustar parámetros de desempeño específicos, esta reprogramación solo puede realizarse como una actualización de software dentro del entorno del servidor existente, sin desconectar, eliminar ni sustituir ningún hardware.

IPU F2070X de Napatech

La IPU F2070X de Napatech, basada en la plataforma Intel® IPU F2000X-PL, consiste en dos tarjetas PCIe de 100 G con una FPGA Intel Agilex® 7 serie F y un procesador Intel® Xeon® D en un factor de forma de ranura doble, altura completa y media longitud (FHHL).

La configuración estándar de la IPU F2070X consta de una FPGA Intel Agilex® 7 AGF023 con cuatro bancos de 4 GB de memoria DDR4 y un procesador Intel® Xeon® D-1736 de 2,3 GHz con dos bancos de 8 GB de memoria DDR4. Se pueden ofrecer otras opciones de configuración para admitir cargas de trabajo específicas.

La IPU F2070X se conecta al host a través de una interfaz PCIe 4.0 x16 (16 GTps), con una interfaz PCIe 4.0 x16 (16 GTps) adicional entre la FPGA y el procesador.

Dos interfaces de red QSFP28/56 de panel frontal admiten las siguientes configuraciones de red:

 

  • 2 de 100 G;
  • 8 de 10 G u 8 de 25 G (con cables conversores).

Un puerto PTP RJ45 dedicado ofrece sincronización horaria opcional con un conector SMA-F externo y MCX-F interno. Se admite el registro de tiempo IEEE 1588v2.

Un conector Ethernet RJ45 dedicado permite la administración de la placa. Las actualizaciones seguras de imágenes FPGA permiten agregar nuevas funciones o actualizar las existentes, una vez que se haya implementado la IPU.

El procesador ejecuta Fedora Linux con una BIOS UEFI, compatibilidad con el arranque PXE, acceso shell completo a través de SSH y una UART.

Adaptador de Intel IPU F2000X
Adaptador de la plataforma Intel® IPU F2000X-PL