Intel avanza en la inferencia de IA para desarrolladores

OpenVINO Toolkit ofrece una actualización importante para acelerar el rendimiento de inferencia de IA con facilidad.

Qué hay nuevo: Desde que OpenVINO™ se lanzó en 2018, Intel ha permitido a cientos de miles de desarrolladores acelerar drásticamente el rendimiento de inferencia de IA, comenzando en el edge y extendiéndose a la empresa y al cliente. Hoy, antes del MWC Barcelona 2022, la compañía ha lanzado una nueva versión del Intel® Distribution of OpenVINO Toolkit. Las nuevas características se basan en tres años y medio de comentarios de los desarrolladores e incluyen una mayor selección de modelos de aprendizaje profundo, más opciones de portabilidad de dispositivos y un mayor rendimiento de inferencia con menos cambios de código.

"La última versión de OpenVINO 2022.1 se basa en más de tres años de aprendizajes de cientos de miles de desarrolladores para simplificar y automatizar las optimizaciones. La última actualización agrega descubrimiento automático de hardware y optimización automática, para que los desarrolladores de software puedan lograr un rendimiento óptimo en cada plataforma. Este software más el silicio Intel permite una ventaja significativa del ROI de la IA y se implementa fácilmente en las soluciones basadas en Intel en su red".

–Adam Burns, vicepresidente de OpenVINO Developer Tools en Network and Edge Group

Más información sobre OpenVINO: El kit de herramientas Intel Distribution of OpenVINO, construido sobre la base de oneAPI, es un conjunto de herramientas para el aprendizaje profundo de alto rendimiento, dirigido a resultados del mundo real más rápidos y precisos implementados en producción en diversas plataformas Intel, desde el edge hasta la nube. OpenVINO permite implementar aplicaciones y algoritmos de alto rendimiento en el mundo real con un flujo de trabajo de desarrollo optimizado.

Por qué es importante: Edge AI está cambiando todos los mercados, permitiendo casos de uso nuevos y mejorados en todas las industrias, desde la fabricación y las aplicaciones de salud y ciencias de la vida hasta el comercio minorista, la seguridad y la protección. Según una investigación de Omdia, los ingresos globales del chipset de IA de edge alcanzarán los $ 51.9 mil millones para 2025, impulsados por la creciente necesidad de inferencia de IA en el edge. La inferencia en el edge reduce la latencia y el ancho de banda y mejora el rendimiento para satisfacer las demandas de procesamiento cada vez más críticas en el tiempo de los dispositivos y aplicaciones emergentes de Internet de las cosas (IoT).

Paralelamente, las cargas de trabajo de los desarrolladores son cada vez mayores y cambiantes. Como resultado, están pidiendo procesos y herramientas más simples y automatizados con capacidades inteligentes y completas para un rendimiento optimizado desde la compilación hasta la implementación.

Acerca de las características de OpenVINO 2022.1: Las nuevas características hacen que sea más fácil para los desarrolladores adoptar, mantener, optimizar e implementar código con facilidad en una gama ampliada de modelos de aprendizaje profundo. Destacan:

API actualizada y más limpia

  • Menos cambios de código al hacer la transición desde los marcos: Los formatos de precisión ahora se conservan con menos fundición, y los modelos ya no necesitan conversión de diseño.
  • Un camino más fácil hacia una IA más rápida: Los parámetros de la API de Model Optimizer se han reducido para minimizar la complejidad.
  • Entrena con la inferencia en mente: Las extensiones de entrenamiento OpenVINO y el marco de compresión de redes neuronales (NNCF) ofrecen plantillas de entrenamiento de modelos opcionales que proporcionan mejoras de rendimiento adicionales con precisión preservada para el reconocimiento de acciones, clasificación de imágenes, reconocimiento de voz, respuesta a preguntas y traducción.

Soporte de modelo más amplio

  • Soporte más amplio para modelos de programación en lenguaje natural y casos de uso como reconocimiento de texto a voz y voz: El soporte de formas dinámicas permite mejorar la familia BERT y los transformadores Hugging Face.
  • Optimización y soporte para visión artificial avanzada: La familia Mask R-CNN ahora está más optimizada y se ha introducido el soporte de modelos de doble precisión (FP64).
  • Soporte directo para modelos PaddlePaddle: Model Optimizer ahora puede importar modelos de PaddlePaddle directamente sin convertir primero a otro marco.

Portabilidad y rendimiento

  • Uso más inteligente del dispositivo sin modificar el código: El modo de dispositivo AUTO detecta automáticamente la capacidad de inferencia del sistema disponible en función de los requisitos del modelo, por lo que las aplicaciones ya no necesitan conocer su entorno informático de antemano.
  • Optimización experta integrada en el kit de herramientas: A través de la funcionalidad de procesamiento automático por lotes, se aumenta el rendimiento del dispositivo, ajustando y personalizando automáticamente la configuración de rendimiento adecuada para la configuración del sistema y el modelo de aprendizaje profundo de los desarrolladores. El resultado es un paralelismo escalable y un uso optimizado de la memoria.
  • Diseñado para Intel® Core de 12.ª generación™: Admite la arquitectura híbrida para ofrecer mejoras para la inferencia de alto rendimiento en cpu y GPU integrada.

Acerca de Edge Adoption: Con un enfoque de escritura única, implementación en cualquier lugar, los desarrolladores pueden escribir una aplicación o algoritmo una vez e implementarlo en toda la arquitectura Intel, incluida la CPU, iGPU, Movidius VPU y GNA. Con la explosión de datos, Intel ha creado un software que permite a los desarrolladores obtener la mayor inteligencia de sus datos para resolver desafíos y transformar los modelos de negocio. Como resultado, la nueva y única IA inferiendo la adopción en el edge y extendiéndose a la empresa y al cliente está creciendo.

La plataforma de IA como servicio de Zeblok, llamada AI-MicroCloud, es una plataforma MLDevOps de la nube al edge que permite a los clientes mezclar y combinar ISV de IA y proveedores a escala para ofrecer aplicaciones de IA de edge al tiempo que admite un ciclo de vida de implementación completo. El software OpenVINO de Intel está integrado en AI-MicroCloud, lo que permite un rendimiento de inferencia de IA dramáticamente mejorado al mejor costo por conocimiento utilizando procesadores Intel. La plataforma AI-MicroCloud de Zeblok se está evaluando actualmente para su implementación con topologías de red específicas en municipios de todo el mundo.

"En Zeblok pensamos en el costo por conocimiento, esa es nuestra misión. Los procesadores Intel que aprovechamos son rentables, eficientes para la inferencia de IA y proporcionan un alto retorno de la inversión. Con esta nueva versión de OpenVINO, el valor para nuestro ecosistema solo se volverá más emocionante", dijo Mouli Narayanan, fundador y CEO de Zeblok.

American Tower ha construido seis centros de datos en el edge, con sitios adicionales en el horizonte, y recientemente adquirió CoreSite para acelerar las implementaciones en el edge con 5G. Están trabajando junto con Intel y Zeblok para habilitar una solución completa llave en mano para los clientes.

"Con la infraestructura de borde de American Tower, las capacidades de aprendizaje profundo OpenVINO de Intel y la plataforma de IA como servicio de Zeblok, podemos habilitar una solución inteligente completa para el mercado", dijo Eric Watko, vicepresidente de Innovación de American Tower.

Más contexto: Intel en el MWC Barcelona 2022 (Dossier de prensa) | Distribución Intel de OpenVINO Toolkit | Descripción general de la distribución Intel de OpenVINO Toolkit | de documentación de OpenVINO Notebooks | Intel Innovation: Noticias de Inteligencia Artificial