Ir al contenido principal
Base de conocimientos de asistencia

No hay aumento de rendimiento en formato FP16 en comparación con el formato FP32 de un modelo mientras se utiliza OpenVINO™ kit de herramientas

Tipo de contenido: Mantenimiento y desempeño   |   ID del artículo: 000095716   |   Última revisión: 01/08/2023

Entorno

OpenVINO 2023.0 Ubuntu 20.04 LTS Intel(R) Core(TM) i7-9850H CPU Gráficos UHD Intel® 630

Descripción

Se espera que el formato FP16 realice una inferencia más rápida en comparación con el mismo modelo en formato FP32. Usar el benchmark_app ejecutar inferencia con la configuración predeterminada de la aplicación para ambos formatos, pero no hay mejora en el desempeño (FPS más altos) al comparar el modelo de formato FP16 con el modelo de formato FP32.

  • $ omz_downloader --name bert-large-uncased-whole-word-masking-squad-0001
  • $ benchmark_app -m FP32/bert-large-uncased-whole-word-masking-squad-0001.xml -api async -t 5 -hint throughput -d {CPU, GPU}
  • $ benchmark_app -m FP16/bert-large-uncased-whole-word-masking-squad-0001.xml -api async -t 5 -hint throughput -d {CPU, GPU}

Resolución

Para ejecutar el modelo FP32 como formato F32 mientras usa el benchmark_app, agregue -infer_precision f32 para el dispositivo elegido.

Por ejemplo:
$ benchmark_app -m intel/bert-large-uncased-whole-word-masking-squad-0001/FP32/bert-large-uncased-whole-word-masking-squad-0001.xml -d GPU -t 5 -api async -hint throughput -infer_precision f32

Más información

Para el complemento de GPU, la precisión de punto flotante de una primitiva de GPU se selecciona en función de la precisión de la operación en el IR OpenVINO, excepto para el formulario IR OpenVINO f16 comprimido <, que se ejecuta en la f16 precisión.
Para el complemento de CPU, la precisión de punto flotante predeterminada de una primitiva de CPU es f32. Para admitir el IR f16 OpenVINO™, el complemento convierte internamente todos los valores de f16 a f32 y todos los cálculos se realizan utilizando la precisión nativa de f32. En las plataformas que admiten cálculos bfloat16 de forma nativa (tienen la extensión AVX512_BF16 o AMX), se utiliza automáticamente el tipo bf16 en lugar de f32 para obtener un mejor rendimiento (consulte la Sugerencia del modo de ejecución).

Para obtener información adicional sobre los tipos de datos para complementos de CPU/GPU, consulte:

Productos relacionados

Este artículo se aplica a 3 productos.
Software del procesador Intel® Xeon Phi™ OpenVINO™ toolkit Bibliotecas de desempeño

Descargos de responsabilidad legales

El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.