No se puede utilizar el POT para optimizar un modelo de Tensorflow (TF) o MXNet para inferencia con el kit de herramientas OpenVINO™ en una plataforma Intel Atom®.
Seleccione una de las dos opciones:
$ python3 -m install virtualenv
$ python3 -m virtualenv -p "qué python3"
Consulte los siguientes enlaces para crear a partir de la fuente:
Del mismo modo que MXNet, TensorFlow (TF) desde pypi se envía con AVX a partir de la versión 1.6. Intel Atom® procesador E3950 es compatible con las instrucciones SSE y no es compatible con AVX. Por lo tanto, la importación de modelos TF o MXNet producirá un error de instrucción ilegal cuando SE EJECUTA POT en dispositivos sin compatibilidad con AVX.
EL propio POT no depende directamente ni de TF ni de MXNet. POT depende del optimizador de modelos y del comprobador de precisión, que pueden depender de TF o MXNet. Para minimizar esta situación, OpenVINO™ toolkit 2021.1 limita la importación de TensorFlow a los casos en los que esta biblioteca se utiliza realmente, por ejemplo, al evaluar un modelo que utiliza TF como back-end. MXNet también es problemático para el mismo escenario, por lo que es posible hacer lo mismo por él.
Sin embargo, los sistemas SSE, como las plataformas Intel Atom®, no se utilizan para fines de calibración. No se recomienda utilizar plataformas Intel Atom® para la cuantificación de POT.