Ir al contenido principal
Base de conocimientos de asistencia

¿Es posible implementar OpenVINO™ canalización de inferencia de tiempo de ejecución con representación intermedia (IR)?

Tipo de contenido: Información y documentación sobre productos   |   ID del artículo: 000092935   |   Última revisión: 28/02/2023

Descripción

  1. Modelo TensorFlow* convertido en IR.
  2. No se pueden determinar los pasos para implementar OpenVINO™ canalización de inferencia de tiempo de ejecución con IR.

Resolución

  1. Create* Núcleo de tiempo de ejecución OpenVINO™
    import openvino.runtime as ov
    core = ov.Core()

     
  2. Compile el modelo
    compiled_model = core.compile_model("model.xml", "AUTO")
     
  3. Crear una solicitud de inferencia
    infer_request = compiled_model.create_infer_request()
     
  4. Establecer Entradas
    # Create tensor from external memory
    input_tensor = ov.Tensor(array=memory, shared_memory=True)
    # Set input tensor for model with one input
    infer_request.set_input_tensor(input_tensor)

     
  5. Empezar Inferencia
    infer_request.start_async()
    infer_request.wait()

     
  6. Procesar los resultados de la inferencia
    # Get output tensor for model with one output
    output = infer_request.get_output_tensor()
    output_buffer = output.data
    # output_buffer[] - accessing output tensor data

Productos relacionados

Este artículo se aplica a 3 productos.
Software del procesador Intel® Xeon Phi™ OpenVINO™ toolkit Bibliotecas de desempeño

Descargos de responsabilidad legales

El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.