Introducción
Este paquete contiene la Intel® Distribution del software OpenVINO™ Toolkit versión 2025.0 para Linux*, Windows* y macOS*.
Descargas disponibles
- Debian Linux*
- Tamaño: 31.8 MB
- SHA256: 7C821B3DF2EA1A5962D4BE07867DFED226B702AC7F2CFED74D544D9B35DCE818
- CentOS 7 (1908)*
- Tamaño: 56.4 MB
- SHA256: C34B7EB9094D618F58B0628B5EC9CA6F1FF49674F4D95FD3772C389B8C037A57
- Red Hat Enterprise Linux 8*
- Tamaño: 61.3 MB
- SHA256: CEB682A4DF4B8A86157686902EBC31FC4927849A708B0B8BB111D475C2A9ECCB
- Ubuntu 20.04 LTS*
- Tamaño: 64.5 MB
- SHA256: 622D5D1B710862659BA530ECC7AA2B9C6F1D84C12819D208F68178474791A2ED
- Ubuntu 20.04 LTS*
- Tamaño: 35.6 MB
- SHA256: D4282BC95F615EFB21646031ACCDEEBC6B4544452996C15DB3A6483FC46AE396
- Ubuntu 22.04 LTS*
- Tamaño: 55.4 MB
- SHA256: 09E8127DAF7EF42851F0C724CE93181B9256568BB6FC8E79CC8F33F4AB6D6F3E
- Tamaño: 56.5 MB
- SHA256: E1681AA6CA02765A5F422EBFF6FD86EBD2C6C0EBD4EFB4E04DDA0EDB79EA30BB
- macOS*
- Tamaño: 46.2 MB
- SHA256: 59BA68B752BE3C298DF45AFD55428A872B39C35813A3C53697CF49591A843D2C
- macOS*
- Tamaño: 36.4 MB
- SHA256: 1628F809540D9A2AB22DFB48B2EA815C75E49EF9AE436AB29412F868886F05F5
- Windows 11*, Windows 10*
- Tamaño: 117.6 MB
- SHA256: B6D96E6ED184A499C054C07BE8619946B4F851F60BF725077E9683FE14719E2B
Descripción detallada
Novedades
- Más cobertura GenAI e integraciones de marcos para minimizar los cambios de código.
- Nuevos modelos compatibles: Qwen 2.5, Deepseek-R1-Distill-Llama-8B, DeepSeek-R1-Distill-Qwen-7B y DeepSeek-R1-Distill-Qwen-1.5B, FLUX.1 Schnell y FLUX.1 Dev.
- Modelo Whisper: Desempeño mejorado en CPUs, GPUs incorporadas y GPUs discretas con GenAI API.
- Versión preliminar: presentamos la compatibilidad con NPU para torch.compile, lo que brinda a los desarrolladores la capacidad de usar el back-end OpenVINO para ejecutar la API de PyTorch en las NPU. 300+ modelos de aprendizaje profundo habilitados desde los repositorios TorchVision, Timm y TorchBench.
- Compatibilidad más amplia con Large Language Model (LLM) y más técnicas de compresión de modelos.
- Vista previa: La adición de Prompt Lookup a GenAI API mejora la latencia del 2do token para LLMs al utilizar efectivamente prompts predefinidos que coinciden con el caso de uso previsto.
- Vista previa: La API GenAI ahora ofrece funcionalidad de pintura de imagen a imagen. Esta característica permite a los modelos generar contenido realista pintando modificaciones específicas e integrándolas sin problemas con la imagen original.
- La compresión asimétrica de caché KV ahora está habilitada para INT8 en las CPU, lo que resulta en un menor consumo de memoria y una mejor latencia de 2do token, especialmente cuando se trata de mensajes largos que requieren una memoria significativa. El usuario debe especificar explícitamente la opción.
- Más portabilidad y desempeño para ejecutar IA en el perímetro, en la nube o localmente.
- Asistencia para los últimos procesadores Intel® Core™ Ultra serie 200H (anteriormente con el nombre de código Arrow Lake-H)
- La integración del back-end de OpenVINO™ con el servidor de inferencia Triton permite que los desarrolladores utilicen el servidor Triton para mejorar el desempeño de los servicios de modelos cuando se implementa en las CPU Intel.
- Vista previa: Una nueva integración de backend OpenVINO™ permite a los desarrolladores aprovechar las optimizaciones de desempeño de OpenVINO directamente dentro de los flujos de trabajo de Keras 3 para una inferencia de IA más rápida en CPU, GPU integradas, GPU discretas y NPU. Esta función está disponible con la última versión de Keras 3.8.
- El OpenVINO Model Server ahora admite implementaciones nativas de Windows Server, lo que permite a los desarrolladores aprovechar un mejor desempeño al eliminar la sobrecarga de contenedores y simplificar la implementación de GPU.
Ahora en desuso
- Los prefijos heredados l_, w_ y m_ se han eliminado de OpenVINO nombres de archivo.
- El espacio de nombres de tiempo de ejecución para la API de Python se marcó como obsoleto y se designó para su eliminación para la versión 2026.0. La nueva estructura del espacio de nombres ya está entregada, y la migración es posible inmediatamente. Los detalles se comunicarán mediante advertencias y documentación.
- El método NNCF create_compressed_model() ha quedado obsoleto. Ahora se recomienda el método nncf.quantize() para el entrenamiento con reconocimiento de cuantización de los modelos PyTorch y TensorFlow.
Instrucciones de instalación
Puede elegir cómo instalar OpenVINO™ Runtime según su sistema operativo:
- Instale OpenVINO Runtime en Linux*
- Instale OpenVINO tiempo de ejecución en Windows*
- Instalar OpenVINO tiempo de ejecución en macOS*
Qué se incluye en el paquete de descarga
- Motor de ejecución/inferencia OpenVINO™ para las API de C/C++ y Python
Enlaces útiles
NOTA: Los vínculos se abren en una ventana nueva.
Esta descarga es válida para los productos mencionados a continuación.
Descargo de responsabilidad1
Información sobre productos y desempeño
Intel se encuentra en el proceso de eliminar el lenguaje no inclusivo de la documentación actual, las interfaces de usuario y el código. Tenga presente que no siempre es posible realizar cambios retroactivos; asimismo, es posible que instancias de lenguaje no inclusivo permanezcan en documentación anterior, interfaces de usuario y código.
El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.