Intel® Distribution de OpenVINO™ kit de herramientas

753640
12/1/2025

Introducción

Este paquete contiene la Intel® Distribution del software OpenVINO™ Toolkit versión 2025.4 para Linux*, Windows* y macOS*.

Descargas disponibles

  • macOS*
  • Tamaño: 43.2 MB
  • SHA256: 918A20A6613AA2C690A69CF753403D84970D1787986B1F01C5B951AF9EEFD8EC
  • macOS*
  • Tamaño: 52.4 MB
  • SHA256: 8A5209B22006B1320D28212E825182A4CB5D2B12F318111181044273F91F0471
  • Linux*
  • Tamaño: 33 MB
  • SHA256: 76C1361A31BC0972AB5A2BAB6EFC2CD449D49B728DE4AA7F33EBC0F5895764A9
  • Tamaño: 57.5 MB
  • SHA256: AD8D73B4B0776761633D8FE40167BB3373605AB59998EFC2C2DA428D3DE028DB
  • Linux*
  • Tamaño: 70.5 MB
  • SHA256: D14B59C695312663764903277BC445CBBC0EBBD2789B85905B9273CA269942BE
  • Linux*
  • Tamaño: 36.7 MB
  • SHA256: D51ED6EB38933AD5E6424DEBE734568B758D0FD9B9DF1B21098CFB3F20D20CD3
  • Linux*
  • Tamaño: 63.8 MB
  • SHA256: 0C30763175A0906CDA365751C1B7A986A313FB10A0CEF4E7637FF5034D954034
  • Linux*
  • Tamaño: 58.6 MB
  • SHA256: C57BC759A04BF316D66DC42D644433CF3BD590AD640933630A0616EFB380A630
  • Microsoft Windows*
  • Tamaño: 125.6 MB
  • SHA256: 995A88DC1E34DF841CC4DB5AB118A87147608C3E4B67F7D9D86BEF1B311A273E
  • Microsoft Windows*
  • Tamaño: 682.1 MB
  • SHA256: 74B072736A803846EFF819BE353709ADBEA60020DC5D41AAF4B509C3697FEF5A

Descripción detallada

Novedades

  • Más cobertura de IA de generación e integraciones de marcos para minimizar los cambios de código
    • Nuevos modelos compatibles:
      • En CPU y GPU: Qwen3-Embedding-0.6B, Qwen3-Reranker-0.6B, Mistral-Small-24B-Instruct-2501.
      • En NPUs: Gemma-3-4b-it y Qwen2.5-VL-3B-Instruct.
    • Vista previa: modelos de mezcla de expertos (MoE) optimizados para CPU y GPU, validados para Qwen3-30B-A3B.
    • Integraciones de canalización GenAI: Qwen3-Embedding-0.6B y Qwen3-Reranker-0.6B para una mejor recuperación/clasificación, y Qwen2.5VL-7B para la canalización de video.
  • Compatibilidad más amplia con el modelo LLM y más técnicas de compresión de modelos
    • El soporte Gold para Windows ML* permite a los desarrolladores implementar modelos y aplicaciones de IA sin esfuerzo en CPU, GPU y NPU en Intel® Core™ Ultra PC con IA impulsada por procesador.
    • El back-end ONNX del marco de compresión de redes neuronales (NNCF) ahora admite la cuantificación estática posterior al entrenamiento (PTQ) INT8 y la compresión de solo peso INT8/INT4 para garantizar la paridad de precisión con OpenVINO modelos de formato IR. Se agregó soporte para el algoritmo SmoothQuant para la cuantificación INT8.
    • Generación acelerada de múltiples tokens para GenAI, aprovechando los kernels de GPU optimizados para ofrecer una inferencia más rápida, una reutilización más inteligente de la caché KV y un desempeño LLM escalable.
    • Las actualizaciones del complemento de GPU incluyen un desempeño mejorado con caché de prefijos para escenarios de historial de chat y una precisión LLM mejorada con compatibilidad de cuantificación dinámica para INT8.
  • Más portabilidad y desempeño para ejecutar IA en el perímetro, en la nube o localmente
    • Anunciamos la compatibilidad con Intel® Core™ Ultra serie 3 de procesadores.
    • Se agregó compatibilidad con el formato de blob cifrado para la implementación de modelos seguros con OpenVINO™ GenAI. Los pesos y artefactos de los modelos se almacenan y transmiten en un formato cifrado, lo que reduce los riesgos de robo de IP durante la implementación. Los desarrolladores pueden implementar con cambios mínimos en el código utilizando OpenVINO canalización de GenAI.
    • OpenVINO™ Model Server y OpenVINO™ GenAI ahora amplían el soporte para escenarios de IA Agentic con nuevas características como análisis de salida y plantillas de chat mejoradas para interacciones confiables de múltiples turnos, y funcionalidad de vista previa para el modelo Qwen3-30B-A3B. OVMS también presenta una vista previa para los puntos finales de audio.
    • La implementación de NPU se simplifica con la compatibilidad por lotes, lo que permite una ejecución perfecta del modelo en Intel® Core™ Ultra procesadores, al tiempo que elimina las dependencias de los controladores. Los modelos se redimensionan a batch_size=1 antes de la compilación.
    • La integración mejorada de NVIDIA Triton Server* con OpenVINO back-end ahora permite a los desarrolladores utilizar las Intel GPUs o NPUs para la implementación.

Obtén todos los detalles. Consulte las notas de la versión 2025.4.

Instrucciones de instalación

Puede elegir cómo instalar OpenVINO™ tiempo de ejecución desde Archive* según su sistema operativo:

Qué se incluye en el paquete de descarga (archivo de archivo)

  • Ofrece API de C/C++ y Python
  • Adicionalmente incluye ejemplos de código

Enlaces útiles

NOTA: Los vínculos se abren en una ventana nueva.

El contenido de esta página es una combinación de la traducción humana y automática del contenido original en inglés. Este contenido se ofrece únicamente para su comodidad como información general y no debe considerarse completa o precisa. Si hay alguna contradicción entre la versión en inglés de esta página y la traducción, prevalecerá la versión en inglés. Consulte la versión en inglés de esta página.