Ir al contenido principal
Base de conocimientos de asistencia

No se pueden obtener los tensores de salida del modelo personalizado que tiene tres salidas

Tipo de contenido: Mensajes de error   |   ID del artículo: 000090966   |   Última revisión: 13/11/2023

Entorno

OpenVINO™ 2022.1.0

Descripción

  • Tengo tensor de salida para el modelo personalizado que tiene tres salidas:

    desde openvino.runtime importar núcleo
    núcleo = núcleo()
    model = core.read_model(model="model.xml")
    compiled_model = core.compile_model(modelo, "CPU")
    infer_request = compiled_model.create_infer_request()
    infer_request.start_async()
    infer_request.wait()
    output = infer_request.get_output_tensor()
    impresión(salida)

  • Error recibido:

    RuntimeError: se debe llamar a get_output_tensor() en una función con exactamente un parámetro.

Resolución

El método ov:: InferRequest::get_output_tensor sin argumentos se puede utilizar para modelos con una sola salida.

  1. Utilice el método ov:: InferRequest ::get_output_tensor con argumento (index: int) para el modelo que tiene más de una salida.

    output1 = infer_request.get_output_tensor(0)
    output2 = infer_request.get_output_tensor(1)
    output3 = infer_request.get_output_tensor(2)

  2. Utilice el atributo data del objeto Tensor para acceder a los datos del tensor de salida para los resultados de inferencia.

    output_buffer1 = output2.data
    output_buffer2 = output2.data
    output_buffer3 = output3.data
    print(output_buffer1)
    print(output_buffer2)
    print(output_buffer3)

Productos relacionados

Este artículo se aplica a 3 productos.
Software del procesador Intel® Xeon Phi™ OpenVINO™ toolkit Bibliotecas de desempeño

Descargos de responsabilidad legales

El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.