Intel® Distribution de OpenVINO™ kit de herramientas

753640
2/6/2025

Introducción

Este paquete contiene la Intel® Distribution del software OpenVINO™ Toolkit versión 2025.0 para Linux*, Windows* y macOS*.

Descargas disponibles

  • Debian Linux*
  • Tamaño: 31.8 MB
  • SHA256: 7C821B3DF2EA1A5962D4BE07867DFED226B702AC7F2CFED74D544D9B35DCE818
  • CentOS 7 (1908)*
  • Tamaño: 56.4 MB
  • SHA256: C34B7EB9094D618F58B0628B5EC9CA6F1FF49674F4D95FD3772C389B8C037A57
  • Red Hat Enterprise Linux 8*
  • Tamaño: 61.3 MB
  • SHA256: CEB682A4DF4B8A86157686902EBC31FC4927849A708B0B8BB111D475C2A9ECCB
  • Ubuntu 20.04 LTS*
  • Tamaño: 64.5 MB
  • SHA256: 622D5D1B710862659BA530ECC7AA2B9C6F1D84C12819D208F68178474791A2ED
  • Ubuntu 20.04 LTS*
  • Tamaño: 35.6 MB
  • SHA256: D4282BC95F615EFB21646031ACCDEEBC6B4544452996C15DB3A6483FC46AE396
  • Ubuntu 22.04 LTS*
  • Tamaño: 55.4 MB
  • SHA256: 09E8127DAF7EF42851F0C724CE93181B9256568BB6FC8E79CC8F33F4AB6D6F3E
  • Tamaño: 56.5 MB
  • SHA256: E1681AA6CA02765A5F422EBFF6FD86EBD2C6C0EBD4EFB4E04DDA0EDB79EA30BB
  • macOS*
  • Tamaño: 46.2 MB
  • SHA256: 59BA68B752BE3C298DF45AFD55428A872B39C35813A3C53697CF49591A843D2C
  • macOS*
  • Tamaño: 36.4 MB
  • SHA256: 1628F809540D9A2AB22DFB48B2EA815C75E49EF9AE436AB29412F868886F05F5
  • Windows 11*, Windows 10*
  • Tamaño: 117.6 MB
  • SHA256: B6D96E6ED184A499C054C07BE8619946B4F851F60BF725077E9683FE14719E2B

Descripción detallada

Novedades

  • Más cobertura GenAI e integraciones de marcos para minimizar los cambios de código.
    • Nuevos modelos compatibles: Qwen 2.5, Deepseek-R1-Distill-Llama-8B, DeepSeek-R1-Distill-Qwen-7B y DeepSeek-R1-Distill-Qwen-1.5B, FLUX.1 Schnell y FLUX.1 Dev.
    • Modelo Whisper: Desempeño mejorado en CPUs, GPUs incorporadas y GPUs discretas con GenAI API.
    • Versión preliminar: presentamos la compatibilidad con NPU para torch.compile, lo que brinda a los desarrolladores la capacidad de usar el back-end OpenVINO para ejecutar la API de PyTorch en las NPU. 300+ modelos de aprendizaje profundo habilitados desde los repositorios TorchVision, Timm y TorchBench.
  • Compatibilidad más amplia con Large Language Model (LLM) y más técnicas de compresión de modelos.
    • Vista previa: La adición de Prompt Lookup a GenAI API mejora la latencia del 2do token para LLMs al utilizar efectivamente prompts predefinidos que coinciden con el caso de uso previsto.
    • Vista previa: La API GenAI ahora ofrece funcionalidad de pintura de imagen a imagen. Esta característica permite a los modelos generar contenido realista pintando modificaciones específicas e integrándolas sin problemas con la imagen original.
    • La compresión asimétrica de caché KV ahora está habilitada para INT8 en las CPU, lo que resulta en un menor consumo de memoria y una mejor latencia de 2do token, especialmente cuando se trata de mensajes largos que requieren una memoria significativa. El usuario debe especificar explícitamente la opción.
  • Más portabilidad y desempeño para ejecutar IA en el perímetro, en la nube o localmente.
    • Asistencia para los últimos procesadores Intel® Core™ Ultra serie 200H (anteriormente con el nombre de código Arrow Lake-H)
    • La integración del back-end de OpenVINO™ con el servidor de inferencia Triton permite que los desarrolladores utilicen el servidor Triton para mejorar el desempeño de los servicios de modelos cuando se implementa en las CPU Intel.
    • Vista previa: Una nueva integración de backend OpenVINO™ permite a los desarrolladores aprovechar las optimizaciones de desempeño de OpenVINO directamente dentro de los flujos de trabajo de Keras 3 para una inferencia de IA más rápida en CPU, GPU integradas, GPU discretas y NPU. Esta función está disponible con la última versión de Keras 3.8.
    • El OpenVINO Model Server ahora admite implementaciones nativas de Windows Server, lo que permite a los desarrolladores aprovechar un mejor desempeño al eliminar la sobrecarga de contenedores y simplificar la implementación de GPU.

Ahora en desuso

  • Los prefijos heredados l_, w_ y m_ se han eliminado de OpenVINO nombres de archivo.
  • El espacio de nombres de tiempo de ejecución para la API de Python se marcó como obsoleto y se designó para su eliminación para la versión 2026.0. La nueva estructura del espacio de nombres ya está entregada, y la migración es posible inmediatamente. Los detalles se comunicarán mediante advertencias y documentación.
  • El método NNCF create_compressed_model() ha quedado obsoleto. Ahora se recomienda el método nncf.quantize() para el entrenamiento con reconocimiento de cuantización de los modelos PyTorch y TensorFlow.

Instrucciones de instalación

Puede elegir cómo instalar OpenVINO™ Runtime según su sistema operativo:

Qué se incluye en el paquete de descarga

  • Motor de ejecución/inferencia OpenVINO™ para las API de C/C++ y Python

Enlaces útiles

NOTA: Los vínculos se abren en una ventana nueva.

Esta descarga es válida para los productos mencionados a continuación.

El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.