Ir al contenido principal
Base de conocimientos de asistencia

¿Por qué elegir el modelo FP16 en compresión de peso con Optimum Intel/Neural Network Compression Framework (NNCF)?

Tipo de contenido: Resolución de problemas   |   ID del artículo: 000098174   |   Última revisión: 21/03/2024

Descripción

No se puede determinar el motivo para elegir el modelo FP16 en la compresión de peso con Optimum Intel/NNCF.

Resolución

La media precisión FP16, que reduce a la mitad el tamaño del modelo de precisión FP32, puede obtener un resultado de inferencia casi idéntico mientras utiliza la mitad de los recursos de la GPU.

Productos relacionados

Este artículo se aplica a 3 productos.
Software del procesador Intel® Xeon Phi™ OpenVINO™ toolkit Bibliotecas de desempeño

Descargos de responsabilidad legales

El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.