Ir al contenido principal
Base de conocimientos de asistencia

Conversión de modelos INT8 a representación intermedia (IR)

Tipo de contenido: Resolución de problemas   |   ID del artículo: 000058759   |   Última revisión: 05/03/2026

Descripción

En la documentación de optimización de modelos, se menciona el entrenamiento consciente de cuantización (QAT). Afirma que QAT permite a un usuario obtener un modelo optimizado preciso que se puede convertir a OpenVINO™ representación intermedia (IR). Sin embargo, no se proporcionan detalles adicionales. Refiérase a:

Resolución

El entrenamiento consciente de la cuantificación (QAT), que utiliza marcos de entrenamiento compatibles con OpenVINO™, es compatible con el Marco de compresión de redes neuronales (NNCF) para:

  • Modelos TensorFlow* 2 / Keras* (a través del flujo de trabajo NNCF QAT)
  • Modelos de PyTorch* (a través del flujo de trabajo NNCF QAT)

NNCF es un marco que proporciona métodos de compresión de modelos posteriores al entrenamiento y al tiempo de entrenamiento (incluido QAT) y se utiliza para optimizar modelos para inferencia OpenVINO.

Una vez completado el ajuste de QAT, se puede exportar el modelo optimizado (comúnmente a ONNX*) y luego convertirlo a OpenVINO™ IR para su implementación.

NotaLa transición a la precisión INT8 y los beneficios de huella correspondientes se producen después de convertir el modelo a OpenVINO IR.

Productos relacionados

Este artículo se aplica a 1 productos.

Descargos de responsabilidad legales

El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.