Pasos para convertir el modelo personalizado de SSD MobileNet V2 a IR mediante el optimizador de modelos
Modelo mobileNetV2 convertido previamente capacitado a IR, pero no es capaz de convertir un modelo con entrenamiento personalizado.
- Gráfico de modelo congelado exportado:
python object_detection/export_inference_graph.py \ --input_type=image_tensor \ --pipeline_config_path={PIPELINE_CONFIG_PATH} \ --output_directory="exported_model" \ --trained_checkpoint_prefix="/content/models/research/helmet_detector/model.ckpt-10000"
- Se ha intentado convertir un gráfico de modelo congelado en IR mediante el optimizador de modelos:
python mo_tf.py \ --input_model ./exported_model/frozen_inference_graph.pb \ --tensorflow_use_custom_operations_config extensions/front/tf/ssd_v2_support.res \ --tensorflow_object_detection_api_pipeline_config ./helment_detector_tf1.config \ --input_shape [1,300,300,3] \ --reverse_input_channels \ --output_dir output_ncs \ --data_type FP16
- Error encontrado:
[ ERROR ] Se produjo una excepción durante la ejecución del reemplazante "REPLACEMENT_ID" (): se produjo una excepción inesperada durante la extracción de atributos para el nodo StatefulIndexedConferenc/Postprocessor/BatchMultiMultiMultiProcessorNonMaxSuppression/map/while. Mensaje de excepción original: '^Postprocessor/BatchMultiHostNonMaxSuppression/map/while/MultiProcessorNonMaxSuppression/SortByField/Assert/Assert'
En el comando de conversión de Model Optimizer, utilice el archivo de configuración de operaciones personalizadas adecuado para los modelos SSD MobileNetV2 generados con los modelos TensorFlow* 1: ssd_support_api_v1.15.res. Consulte la página siguiente para obtener instrucciones de conversión: Cómo convertir un modelo
python3./openvino/model-optimizer/mo_tf.py --input_model ./exported_model/exported_model/frozen_inference_graph.pb --tensorflow_use_custom_operations_config ./openvino/model-optimizer/extensions/front/tf/ssd_support_api_v1.15.tensorflow_object_detection_api_pipeline_config ./helment_detector_tf1.config --input_shape [1300,300,3] --reverse_input_channels --data_type FP16