Ir al contenido principal
Base de conocimientos de asistencia

¿Por qué el formato de modelo cuantificado permaneció en FP32 en lugar de INT8?

Tipo de contenido: Información y documentación sobre productos   |   ID del artículo: 000095064   |   Última revisión: 13/06/2023

Descripción

  • Modelo ONNX cuantificado con formato de precisión FP32.
  • Ejecutó la función de compress_model_weights para reducir el tamaño del archivo de ubicación después de realizar la cuantificación posterior al entrenamiento.
  • Compile el modelo y notó que el resultado del modelo se encuentra en FP32 en lugar de en INT8.

Resolución

Durante la cuantificación, solo se estaban cuantificando las operaciones necesarias en perspectiva de desempeño. Las operaciones restantes seguirán siendo FP32 en el resultado.

Productos relacionados

Este artículo se aplica a 3 productos.
Software del procesador Intel® Xeon Phi™ OpenVINO™ toolkit Bibliotecas de desempeño

Descargos de responsabilidad legales

El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.