Conversión de modelos de API de detección de objetos TensorFlow para inferencia en el Barra de cómputo neuronal Intel® 2 (Intel® NCS 2)
Siga la guía de inicio de Intel® NCS 2 para instalar el kit de herramientas OpenVINO™ y configurar Intel® NCS 2.
Nota | La Guía de inicio y este artículo también se aplican a los usuarios con la barra de cómputo neuronal Intel® Movidius™ original. |
El script mo_tf.py se encuentra en el directorio ~/intel/openvino/deployment_tools/model_optimizer . Se deben especificar los siguientes parámetros al convertir el modelo a Representación intermedia (IR) para inferencia con Intel® NCS 2.
--input_model <path_to_frozen.pb>
- Consulte Congelación de modelos personalizados en Python para obtener más información.
--tensorflow_use_custom_operations_config <path_to_subgraph_replacement_configuration_file.json>
- Los archivos de configuración se encuentran en el directorio ~/intel/openvino/deployment_tools/model_optimizer/extensiones/front/tf . Elija un archivo de configuración que coincida con la topología del modelo. Eche un vistazo a Cómo convertir un modelo para obtener una lista de archivos de configuración.
--tensorflow_object_detection_api_pipeline_config <path_to_pipeline.config>
--reverse_input_channels
- Este parámetro es obligatorio si está utilizando el modelo de API de detección de objetos TensorFlow convertido con aplicaciones de muestra del motor de inferencia.
--data_type FP16
- Especifica el formato de punto flotante de media precisión que se ejecutará en Intel® NCS 2
Ejemplo de un comando de optimizador de modelos:
python3 ~/intel/openvino/deployment_tools/model_optimizer/mo_tf.py --input_model frozen_model.pb --tensorflow_use_custom_operations_config ~/intel/openvino/deployment_tools/model_optimizer/extensions/front/tf/ssd_v2_support.json --tensorflow_object_detection_api_pipeline_config pipeline.config --reverse_input_channels --data_type FP16
Encontrará información adicional sobre el optimizador de modelos en la documentación del kit de herramientas OpenVINO™.