Conversión de modelos de API de detección de objetos TensorFlow para inferencia en el Barra de cómputo neuronal Intel® 2 (Intel® NCS 2)

Documentación

Resolución de problemas

000055228

06/06/2023

Siga la guía de inicio de Intel® NCS 2 para instalar el kit de herramientas OpenVINO™ y configurar Intel® NCS 2.

Nota La Guía de inicio y este artículo también se aplican a los usuarios con la barra de cómputo neuronal Intel® Movidius™ original.

El script mo_tf.py se encuentra en el directorio ~/intel/openvino/deployment_tools/model_optimizer . Se deben especificar los siguientes parámetros al convertir el modelo a Representación intermedia (IR) para inferencia con Intel® NCS 2.

--input_model <path_to_frozen.pb>

--tensorflow_use_custom_operations_config <path_to_subgraph_replacement_configuration_file.json>

  • Los archivos de configuración se encuentran en el directorio ~/intel/openvino/deployment_tools/model_optimizer/extensiones/front/tf . Elija un archivo de configuración que coincida con la topología del modelo. Eche un vistazo a Cómo convertir un modelo para obtener una lista de archivos de configuración.

--tensorflow_object_detection_api_pipeline_config <path_to_pipeline.config>

--reverse_input_channels

  • Este parámetro es obligatorio si está utilizando el modelo de API de detección de objetos TensorFlow convertido con aplicaciones de muestra del motor de inferencia.

--data_type FP16

  • Especifica el formato de punto flotante de media precisión que se ejecutará en Intel® NCS 2

Ejemplo de un comando de optimizador de modelos:

python3 ~/intel/openvino/deployment_tools/model_optimizer/mo_tf.py --input_model frozen_model.pb --tensorflow_use_custom_operations_config ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config pipeline.config --reverse_input_channels --data_type FP16

Encontrará información adicional sobre el optimizador de modelos en la documentación del kit de herramientas OpenVINO™.