Ir al contenido principal
Base de conocimientos de asistencia

¿Por qué los modelos Caffe se pueden utilizar directamente con OpenVINO™ TOOLKIT Inference Engine API?

Tipo de contenido: Compatibilidad   |   ID del artículo: 000088387   |   Última revisión: 20/05/2022

Descripción

  • Modelo de Caffe inferenciado directamente en Barra de cómputo neuronal Intel® 2 (Intel® NCS2).
  • No se puede determinar por qué el modelo de Caffe se puede utilizar directamente con OpenVINO™ API del motor de inferencia del kit de herramientas sin convertir a representación intermedia (IR).

Resolución

Solo se pueden utilizar marcos limitados de Caffe directamente con la API del motor de inferencia del kit de herramientas OpenVINO™.

Actualmente, los marcos compatibles con OpenVINO™ Toolkit Inference Engine API son los siguientes:

  • Representación intermedia (IR)
  • ONNX

Productos relacionados

Este artículo se aplica a 2 productos.

Productos discontinuados

Intel® Developer Cloud para red perimetral

Descargos de responsabilidad legales

El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.