ID del artículo: 000058700 Tipo de contenido: Resolución de problemas Última revisión: 20/05/2022

Se encontró el error "Se produjo la excepción durante la ejecución del reemplazante "REPLACEMENT_ID" al convertir una SSD personalizada MobileNetV2 a representación intermedia (IR)

Entorno

Kit de herramientas de OpenVINO™ de código abierto 2021.2  TensorFlow* 2.2 TensorFlow 1.15

BUILT IN - ARTICLE INTRO SECOND COMPONENT
Resumen

Pasos para convertir el modelo personalizado de SSD MobileNet V2 a IR mediante el optimizador de modelos

Descripción

Modelo mobileNetV2 convertido previamente capacitado a IR, pero no es capaz de convertir un modelo con entrenamiento personalizado.

  1. Gráfico de modelo congelado exportado:

    python object_detection/export_inference_graph.py \ --input_type=image_tensor \ --pipeline_config_path={PIPELINE_CONFIG_PATH} \ --output_directory="exported_model" \ --trained_checkpoint_prefix="/content/models/research/helmet_detector/model.ckpt-10000"

  2. Se ha intentado convertir un gráfico de modelo congelado en IR mediante el optimizador de modelos:

    python mo_tf.py \ --input_model ./exported_model/frozen_inference_graph.pb \ --tensorflow_use_custom_operations_config extensions/front/tf/ssd_v2_support.res \ --tensorflow_object_detection_api_pipeline_config ./helment_detector_tf1.config \ --input_shape [1,300,300,3] \ --reverse_input_channels \ --output_dir output_ncs \ --data_type FP16

  3. Error encontrado:

    [ ERROR ] Se produjo una excepción durante la ejecución del reemplazante "REPLACEMENT_ID" (): se produjo una excepción inesperada durante la extracción de atributos para el nodo StatefulIndexedConferenc/Postprocessor/BatchMultiMultiMultiProcessorNonMaxSuppression/map/while. Mensaje de excepción original: '^Postprocessor/BatchMultiHostNonMaxSuppression/map/while/MultiProcessorNonMaxSuppression/SortByField/Assert/Assert'

Resolución

En el comando de conversión de Model Optimizer, utilice el archivo de configuración de operaciones personalizadas adecuado para los modelos SSD MobileNetV2 generados con los modelos TensorFlow* 1: ssd_support_api_v1.15.res. Consulte la página siguiente para obtener instrucciones de conversión: Cómo convertir un modelo

python3./openvino/model-optimizer/mo_tf.py --input_model ./exported_model/exported_model/frozen_inference_graph.pb --tensorflow_use_custom_operations_config ./openvino/model-optimizer/extensions/front/tf/ssd_support_api_v1.15.tensorflow_object_detection_api_pipeline_config ./helment_detector_tf1.config --input_shape [1300,300,3] --reverse_input_channels --data_type FP16

Productos relacionados

Este artículo se aplica a 2 productos

El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.