No se puede encontrar información sobre las diferencias entre ejecutar OpenVINO™ con formato de modelo IR y directamente desde el formato de origen (ONNX*, Pytorch*).
Ejecutar OpenVINO™ inferencia con el formato de modelo IR ofrece los mejores resultados posibles, ya que el modelo ya está convertido. Este formato ofrece una menor latencia de primera inferencia y opciones para optimizaciones de modelos. Este formato es el más optimizado para OpenVINO™ inferencia.
Al ejecutar la inferencia directamente desde el formato de origen, la conversión del modelo se produce automáticamente y es manejada por OpenVINO™. Este método es conveniente, pero podría no dar el mejor rendimiento o estabilidad. Tampoco proporciona opciones de optimización.
Consulte la página Preparación del modelo para obtener más información sobre los formatos de modelo OpenVINO™ compatibles.