La versión del navegador que esta usando no es la recomendada para este sitio.
Para actualizar la última versión de su navegador haga clic en alguno de los siguientes enlaces.

Asistencia

Afinar el rendimiento para Intel® adaptadores de Ethernet


Última revisión: 23-Jan-2017
ID del artículo: 000005811

Sugerencias de instalación del adaptador

  • Instale al adaptador de red Intel® en una ranura que coincida con o supera el ancho de bus de que el adaptador.
    • Ejemplo 1: si tiene un adaptador PCI de 32 bits colocarla en un 32 bits o 64-bit PCI o PCI-X * ranura.
    • Ejemplo 2: si tiene un adaptador PCI-X de 64 bits ponerlo en una ranura PCI-X de 64 bits.
    • Ejemplo 3: si tiene una x4 PCIe * adaptador colocarla en un x4, x8 o x16 PCIe * ranura.
    NotaAlgunas ranuras PCIe * físicamente tienen cables con menos canales que indican las dimensiones de la ranura. En ese caso, una ranura que coincida con un x8 dimensiones tendría la funcionalidad de una ranura x4, x2 o x1. Consulte con el fabricante del sistema.
     
  • Para las tarjetas PCI y PCI-X *, instale el adaptador de red Intel en la ranura más rápido disponible.
    • Ejemplo 1: si tiene un adaptador PCI de 64 bits ponerlo en una ranura PCI MHz 64-bit 66.
    • Ejemplo 2: si tiene un adaptador PCI-X de 64 bits colocar en un 133 MHz (266 o 533 si lo hay) ranura PCI-X de 64 bits.
    NotaLa tarjeta más lento que esté en un autobús determina la máxima velocidad del bus. Ejemplo: cuando un 66MHz y una 133 MHz adicional en tarjeta estén instalados en un bus de 133 MHz, a continuación, todos los dispositivos de bus de que funcionen a 66 MHz.
     
  • Intente instalar al adaptador en una ranura en un autobús por sí mismo. Si las tarjetas adicionales recurso compartido un bus, ellos compiten por el ancho de banda de bus.

Sugerencias de configuración de controlador

  • Intel® Ethernet 10 Gigabit convergido adaptadores de red, puede elegir un perfil de rendimiento basada en roles para ajustar automáticamente la configuración del controlador.
  • Reduzca la tasa de moderación de interrupción a bajo, mínimo, o apagado
    • También conocido como interrupción del Acelerador porcentaje (ITR).
    • El por defecto es "Adaptable" para la mayoría de los roles.
    • El perfil de latencia baja, Establece la velocidad en off.
    • Los perfiles de almacenamiento establece el porcentaje de en medio.
    NotaDisminuyendo la tasa de moderación de interrupciones aumenta la utilización de CPU.
     
  • Active las tramas Jumbo en el mayor tamaño de apoyo a lo largo de la red (de 4KB, 9KB o 16KB)
    • Se desactiva la por defecto.
    NotaActive las tramas Jumbo únicamente si los dispositivos a través de la red admiten y si están configurados para utilizar el mismo tamaño de trama.
     
  • Deshabilite el Control de flujo.
    • El por defecto es generar y responder.
    NotaDeshabilitar el Control de flujo puede resultar en tramas perdidas.
     
  • Aumente el tamaño del buffer de descriptores de transmisión.
    • El por defecto es 256. Valor máximo es de 2048.
    NotaAumento de descriptores de transmisión aumenta el uso de memoria del sistema.
     
  • Aumente el tamaño del buffer de descriptores de recepción.
    • El por defecto es 256. Valor máximo es de 2048.
    NotaAumento de descriptores de recepción aumenta el uso de memoria del sistema.
     

Sugerencias de configuración de TCP

  • Ajustar el tamaño de ventana TCP (se aplica a las versiones de Windows * Server antes de Windows Server 2008 *).
    Notas

    Optimización de su tamaño de ventana TCP puede ser compleja, como cada red es diferente. Documentos están disponibles en la Internet que explican las consideraciones y fórmulas que se utiliza para definir el tamaño de la ventana.

    Antes de Windows Server 2008, la pila de red utiliza una ventana de tamaño fijo en lado de recepción. A partir de Windows Server 2008, Windows proporciona TCP recibir ajuste automático de la ventana. Las palabras clave de registro TcpWindowSize, NumTcbTablePartitions y MaxHashTableSize, se hace caso omiso a partir de Windows Server 2008.

     

Sugerencias y consideraciones sobre la creación de equipos
Cuando el trabajo en equipo de varios puertos de adaptador a fin de maximizar el ancho de banda, debe considerarse como el conmutador. 802.3ad dinámico o estático adición de enlace es el mejor modo de trabajo en equipo, pero este modo de trabajo en equipo exige varios puertos contiguos en el conmutador. Preste atención a los grupos de puerto del conmutador. Por lo general, un conmutador tiene varios puertos agrupados y que se reciba la atención de un PHY. Este uno PHY puede tener un ancho de banda limitado compartida para todos los puertos es compatible con. Este límite de ancho de banda para un grupo no puede ser suficiente para la compatibilidad con un uso completo de todos los puertos en el grupo.

Aumento del desempeño puede ser limitado para el ancho de banda compartido, cuando el conmutador comparte el ancho de banda a través de puertos contiguos. 4 puertos en los adaptadores de red Gigabit Intel® o una red LAN en las motherboards juntos en un 802.3ad estático o dinámico de creación de equipos de ejemplo: Trabajo en equipo modo. En este ejemplo de puertos gigabit 4 recurso compartido un ancho de banda total de PHY de 2 Gbps. La capacidad de los puertos del conmutador grupo depende del fabricante del conmutador y el modelo y puede variar de un conmutador a conmutador.

Alternativa modos de trabajo en equipo a veces puede mitigar estas limitaciones de desempeño. Por ejemplo, mediante la carga de la adaptación (ALB), incluyendo la carga de recepción. ALB no tiene las demandas en el conmutador y no tiene que estar conectada a los puertos de conmutador contiguo. Si el partner enlace tiene grupos de puerto, un equipo ALB se puede conectar a cualquier puerto del conmutador. Conectar el equipo ALB de esta forma distribuye las conexiones entre varios grupos de puerto disponible en el conmutador. Esta acción puede aumentar el ancho de banda de red general.

Consideraciones sobre pruebas de rendimiento

  • Al copiar un archivo desde un sistema a otro (1:1) mediante una sesión TCP, capacidad de procesamiento es notablemente inferior de haciendo varias sesiones simultáneas de TCP. Rendimiento bajo en las redes de 1:1 es debido a la latencia inherente en una sola sesión TCP/IP. Algunas aplicaciones de transferencia de archivos compatible con múltiples transmisiones TCP simultáneas. Algunos ejemplos son:bbFTP*,gFTP*, yFDT*.

    performance benefit of using multiple TCP streams

    Este gráfico se ha diseñado para mostrar (garantía de no) el beneficio de rendimiento del uso de varios flujos TCP. Estos son los resultados reales de un Intel® adaptador 10 Gigabit CX4 Dual Port Server, usando la configuración avanzada por defecto en Windows 2008 * x64.

     
  • Dirigir las pruebas de las capacidades de rendimiento de su interfaz de red pueden realizarse mediante herramientas como: iperf* y Microsoft NTTTCP*. Estas herramientas pueden configurarse para utilizar uno o más flujos.
  • Al copiar un archivo desde un sistema a otro, las unidades de disco duras de cada sistema pueden ser un cuello de botella significativo. Considere el uso de alto RPM, unidades de disco duro de mayor capacidad de procesamiento, divididos RAIDs o las unidades de memoria RAM en los sistemas sometido a prueba.
  • Sometido a prueba los sistemas deben ser conectados a través de una tasa de línea completa, sin bloquear el conmutador.
  • Rendimiento teórico máximo del Bus:
    • PCI Express * (PCIe *) teórico Bus bidireccional capacidad de procesamiento.
      Implementación de PCI ExpressVelocidad de datos codificadosVelocidad de datos sin codificar
      X15 Gb/seg.4 Gb/seg (0,5 GB/seg.)
      X420 Gb/seg.16 Gb/seg. (2 GB/seg)
      X840 Gb/seg.32 Gb/seg. (4 GB/seg)
      x1680 Gb/seg.64 Gb/seg (8 GB/seg)
       
    • Rendimiento teórico bidireccional de Bus PCI y del Bus PCI-X.
      Frecuencia y busVelocidad de transferencia de 32 bitsVelocidad de transferencia de 64 bits
      PCI de 33 MHz1,064 mb/seg.2,128 mb/seg.
      PCI de 66 MHz2,128 mb/seg.4,256 mb/seg.
      100 MHz PCI-XNo se aplica6.400 mb/seg.
      133 MHz PCI-XNo se aplica8192 mb/seg.
       
      NotaA través de propiedades del adaptador, se puede comprobar el ancho de enlace PCIe * en Windows *. Seleccione el Tabul Velocidad de enlace y haga clic en el botón Identificar adaptador . Intel® PROSet para el Administrador de dispositivos de Windows * debe cargarse para esta utilidad para funcionar.
 
Temas relacionados
Guía del usuario proporciona notas de la versión, información de configuración y problemas conocidos
Configuración avanzada de controlador para adaptadores de servidor Intel® Ethernet 10 Gigabit
Transferencia de archivos de maximizar el rendimiento mediante la Virtualización y Ethernet de 10 Gb (Linux * y VMware VSphere *)
Directrices de sintonización del rendimiento para Windows Server 2012 *
Directrices de sintonización del rendimiento para Windows Server 2008 R2 *
Directrices de sintonización del rendimiento para Windows Server 2008 *
Las características TCP de Windows 2000 y Windows Server 2003 *
Mejorando mide la latencia en Linux * para Intel® 82575 y 82576 o 82599 y 82598 controladores Ethernet
Asignación de interrupciones de núcleo del procesador para Intel® 82575 y 82576 o 82599 y 82598 controladores Ethernet
Hablar de parámetro: descriptores TX y RX explica los efectos de cambiar el tamaño de buffer
Red virtual bajo rendimiento de E/S con NIC de 1 Gbps de Intel utilizando el controlador igb explica el desempeño para ciertas cargas de trabajo de la afinación ESXi

- Esta información es una combinación de una traducción hecha por humanos y de la traducción automática por computadora del contenido original para su conveniencia. Este contenido se ofrece únicamente como información general y no debe ser considerada como completa o precisa.

Este artículo se aplica a: