Asistencia

Afinar el rendimiento para Intel® adaptadores de Ethernet


Última revisión: 27-Apr-2017
ID del artículo: 000005811

Sugerencias de instalación del adaptador

  • Instale al adaptador de red Intel® en una ranura que coincide o supera el ancho del bus del adaptador.
    • Ejemplo 1: si tiene un adaptador PCI de 32 bits colocarla en un 32 bits o 64-bit PCI o PCI-ranura de X.
    • Ejemplo 2: si tiene un adaptador PCI-X de 64 bits ponerlo en una ranura PCI-X de 64 bits.
    • Ejemplo 3: si tiene un x4 adaptador de PCIe colocarla en una x4 x8 ranura o x16 PCIe *.
    NotaAlgunas ranuras PCIe * físicamente tienen cables con menos canales que indican las dimensiones de la ranura. En ese caso, una ranura que coincida con un x8 dimensiones tendría la funcionalidad de una ranura x4, x2 o x1. Consulte con el fabricante del sistema.
     
  • Para las tarjetas PCI y PCI-X *, instale el adaptador de red Intel en la ranura más rápida disponible.
    • Ejemplo 1: si tiene un adaptador PCI de 64 bits ponerlo en una ranura PCI MHz 64-bit 66.
    • Ejemplo 2: si tiene un adaptador PCI-X de 64 bits colocar en un 133 MHz (266 o 533 si está disponible) ranura PCI-X de 64 bits.
    NotaLa placa más lento que esté en un autobús determina la máxima velocidad del bus. Ejemplo: cuando un 66MHz y una 133 MHz adicional en tarjeta estén instalados en un bus de 133 MHz, a continuación, todos los dispositivos de bus de que funcionen a 66 MHz.
     
  • Intente instalar al adaptador en una ranura en un autobús por sí mismo. Si las tarjetas adicionales que comparten un bus, ellos compiten por el ancho de banda de bus.

Sugerencias de configuración de controlador

  • Intel® Ethernet 10 Gigabit adaptadores de redes convergentes, puede elegir un perfil de rendimiento basada en roles para ajustar automáticamente la configuración del controlador.
  • Reduzca la tasa de moderación de interrupción a bajo, mínimo, o apagado
    • También conocido como interrupción del Acelerador porcentaje (ITR).
    • El valor predeterminado es "Adaptable" para la mayoría de los roles.
    • El perfil de baja latencia establece la velocidad en off.
    • Los perfiles de almacenamiento establece el porcentaje de en medio.
    NotaDisminuyendo la tasa de moderación de interrupciones aumenta la utilización de CPU.
     
  • Active las tramas Jumbo en el mayor tamaño de apoyo a lo largo de la red (de 4KB, 9KB o 16KB)
    • El valor predeterminado está deshabilitado.
    NotaActive las tramas Jumbo únicamente si los dispositivos de la red las admiten y si están configurados para utilizar el mismo tamaño de trama.
     
  • Deshabilite el Control de flujo.
    • Generar y responder de forma predeterminada.
    NotaDeshabilitar el Control de flujo puede resultar en tramas perdidas.
     
  • Aumente el tamaño del búfer de descriptores de transmisión.
    • El valor predeterminado es 256. Valor máximo es de 2048.
    NotaAumento de descriptores de transmisión aumenta el uso de la memoria del sistema.
     
  • Aumente el tamaño del búfer de descriptores de recepción.
    • El valor predeterminado es 256. Valor máximo es de 2048.
    NotaAumento de descriptores de recepción aumenta el uso de la memoria del sistema.
     

Sugerencias de configuración de TCP

  • Ajustar el tamaño de ventana TCP (se aplica a las versiones de Windows * Server antes de Windows Server 2008 *).
    Notas

    Optimización de su tamaño de ventana TCP puede ser compleja, como todas las redes son diferentes. Documentos están disponibles en Internet que explican las consideraciones y fórmulas que se utiliza para definir el tamaño de la ventana.

    Antes de Windows Server 2008, la pila de red utiliza una ventana de tamaño fijo en lado de recepción. A partir de Windows Server 2008, Windows proporciona el ajuste automático de la ventana de recepción TCP. Las palabras clave de Registro TcpWindowSize, NumTcbTablePartitions y MaxHashTableSize, se hace caso omiso a partir de Windows Server 2008.

     

Sugerencias y consideraciones sobre la creación de equipos
Al crear equipos de varios puertos de adaptador a fin de maximizar el ancho de banda, el conmutador debe ser considerado. 802.3ad dinámico o estático agregación de enlaces es el mejor modo de creación de equipos, pero el modo de equipos exige varios puertos contiguos en el conmutador. Preste atención a los grupos de puertos en el conmutador. Por lo general, un conmutador tiene varios puertos agrupados y que se reciba la atención de un PHY. Este uno PHY puede tener un ancho de banda limitado compartida para todos los puertos es compatible con. Este ancho de banda limitado para un grupo podría no estar suficiente para soportar el uso completo de todos los puertos en el grupo.

Aumento del desempeño puede ser limitado para el ancho de banda compartido, cuando el conmutador comparte el ancho de banda a través de puertos contiguos. 4 puertos en los adaptadores de red Gigabit Intel® o una red LAN en las motherboards juntos en un 802.3ad estático o dinámico de creación de equipos de ejemplo: Modo de equipo. En este ejemplo de puertos gigabit 4 comparten un ancho de banda total de PHY de 2 Gbps. La capacidad de agrupar puertos de conmutador depende del fabricante del conmutador y el modelo y puede variar de un conmutador a conmutador.

Alternativa modos de equipo a veces puede mitigar estas limitaciones de desempeño. Por ejemplo, mediante la carga de la adaptación (ALB), incluyendo la carga de recepción. ALB no tiene las demandas en el conmutador y no tiene que estar conectada a los puertos de conmutador contiguo. Si el interlocutor de enlace tiene grupos de puertos, se puede conectar un equipo ALB a cualquier puerto del conmutador. Conectar el equipo ALB de esta forma distribuye las conexiones entre varios grupos de puerto disponible en el conmutador. Esta acción puede aumentar el ancho de banda de red general.

Consideraciones sobre pruebas de rendimiento

  • Al copiar un archivo desde un sistema a otro (1:1) mediante una sesión TCP, capacidad de procesamiento es notablemente inferior de haciendo varias sesiones simultáneas de TCP. Rendimiento bajo en las redes de 1:1 es debido a la latencia inherente en una sola sesión TCP/IP. Algunas aplicaciones de transferencia de archivos compatible con múltiples transmisiones TCP simultáneas. Algunos ejemplos son:bbFTP*,gFTP*, yFDT*.

    performance benefit of using multiple TCP streams

    Este gráfico se ha diseñado para mostrar (garantía de no) el beneficio de rendimiento del uso de varios flujos TCP. Estos son los resultados reales de un Intel® adaptador 10 Gigabit CX4 Dual Port Server, utilizar la configuración avanzada de forma predeterminada en Windows 2008 * x64.

     
  • Dirigir las pruebas de las capacidades de rendimiento de su interfaz de red pueden realizarse mediante herramientas como: iperf* y Microsoft NTTTCP*. Estas herramientas pueden configurarse para utilizar uno o más flujos.
  • Al copiar un archivo desde un sistema a otro, las unidades de disco duras de cada sistema pueden ser un cuello de botella significativo. Considere el uso de alto RPM, unidades de disco duro de mayor capacidad de procesamiento, divididos RAIDs o las unidades de memoria RAM en los sistemas sometido a prueba.
  • Sometido a prueba los sistemas deben ser conectados a través de una tasa de línea completa, conmutador sin bloqueo.
  • Rendimiento teórico máximo del Bus:
    • PCI Express * (PCIe *) teórico Bus bidireccional capacidad de procesamiento.
      Implementación de PCI ExpressVelocidad de datos codificadosVelocidad de datos sin codificar
      X15 Gb/seg.4 Gb/seg (0,5 GB/seg.)
      X420 Gb/seg.16 Gb/seg. (2 GB/seg)
      X840 Gb/seg.32 Gb/seg. (4 GB/seg)
      x1680 Gb/seg.64 Gb/seg (8 GB/seg)
       
    • Rendimiento teórico bidireccional de Bus PCI y del Bus PCI-X.
      Frecuencia y busVelocidad de transferencia de 32 bitsVelocidad de transferencia de 64 bits
      PCI de 33 MHz1,064 mb/seg.2,128 mb/seg.
      PCI de 66 MHz2,128 mb/seg.4,256 mb/seg.
      100 MHz PCI-XNo se aplica6.400 mb/seg.
      133 MHz PCI-XNo se aplica8192 mb/seg.
       
      NotaA través de propiedades del adaptador, se puede comprobar el ancho de enlace PCIe * en Windows *. Seleccione la ficha Velocidad de enlace y haga clic en el botón Identificar adaptador . Intel® PROSet para el Administrador de dispositivos de Windows * debe cargarse para que funcione esta utilidad.
 
Temas relacionados
Guía del usuario proporciona notas de versión, detalles de configuración y problemas conocidos
Configuración avanzada de controlador para adaptadores de servidor Intel® Ethernet 10 Gigabit
Utilizar la virtualización y Ethernet de 10 Gb de desempeño de transferencia de archivos maximizar (Linux * y VMware VSphere *)
Directrices de sintonización del rendimiento para Windows Server 2012 *
Directrices de sintonización del rendimiento para Windows Server 2008 R2 *
Directrices de sintonización del rendimiento para Windows Server 2008 *
Las características TCP de Windows 2000 y Windows Server 2003 *
Mejorando mide la latencia en Linux * para Intel® 82575 y 82576 o 82599 y 82598 controladores Ethernet
Asignación de interrupciones de núcleo del procesador para Intel® 82575 y 82576 o 82599 y 82598 controladores Ethernet
Hablar de parámetro: descriptores TX y RX explica los efectos de cambiar el tamaño del búfer
Desempeño de E/S con NIC de 1 Gbps de Intel utilizando el controlador igb de red virtual bajo explica el desempeño para ciertas cargas de trabajo de la afinación ESXi

- Esta información es una combinación de una traducción hecha por humanos y de la traducción automática por computadora del contenido original para su conveniencia. Este contenido se ofrece únicamente como información general y no debe ser considerada como completa o precisa.

Este artículo se aplica a:

Controlador Intel® Ethernet XL710-BM1
Controlador Intel® Ethernet XL710-BM2
Controlador Intel® Ethernet X710-BM2
Controladora Ethernet Intel® X540-AT2
Controlador Ethernet Gigabit Intel® 82567
Controlador Ethernet Gigabit Intel® 82567
Adaptador Intel® QuickAssist 8920