El 22 de mayo de 2023, durante la ISC High Performance 2023 celebrado en Hamburgo (Alemania), Intel y el Laboratorio Nacional Argonne destacaron el progreso de la instalación de la supercomputadora Aurora. (Crédito: Laboratorio Nacional Argonne)
El 22 de mayo de 2023, durante la ISC High Performance 2023 celebrado en Hamburgo (Alemania), Intel y el Laboratorio Nacional Argonne destacaron el progreso de la instalación de la supercomputadora Aurora. (Crédito: Laboratorio Nacional Argonne)
El 22 de mayo de 2023, en la ISC High Performance 2023 de Hamburgo (Alemania), el Laboratorio Nacional Argonne, en colaboración con Intel y HPE, anunció sus planes de crear una serie de modelos generativos de IA para la comunidad de investigación científica. (Crédito: Intel Corporation)
El 22 de mayo de 2023, en la ISC High Performance 2023 celebrada en Hamburgo (Alemania), Intel presentó el subsistema Intel Data Center GPU Max x8 UBB para computación de alto rendimiento (HPC) e inteligencia artificial (AI) en colaboración con los principales fabricantes de equipos originales (OEM). (Crédito: Intel Corporation)
El 22 de mayo de 2023, en la ISC High Performance 2023 de Hamburgo (Alemania), Intel y el Laboratorio Nacional Argonne destacaron el progreso de la instalación, las especificaciones del sistema y los primeros resultados de rendimiento del Supercomputador Aurora. (Crédito: Intel Corporation)
El 22 de mayo de 2023, en la ISC High Performance 2023 en Hamburgo (Alemania) Intel compartió detalles de su oneAPI mejorada y herramientas de inteligencia artificial (IA) para ayudar a los desarrolladores a acelerar la computación de alto rendimiento (HPC) y las cargas de trabajo de IA al tiempo que mejora la portabilidad de código a través de múltiples arquitecturas. (Crédito: Intel Corporation)
El 22 de mayo de 2023, en la ISC High Performance 2023 celebrada en Hamburgo (Alemania), Intel compartió detalles de su rendimiento competitivo en cargas de trabajo de computación de alto rendimiento (HPC) e inteligencia artificial (IA) con la GPU Intel Data Center Serie Max. (Crédito: Intel Corporation)
El 22 de mayo de 2023, en la ISC High Performance 2023 de Hamburgo (Alemania), el Laboratorio Nacional Argonne, en colaboración con Intel y HPE, anunció sus planes de crear una serie de modelos generativos de IA para la comunidad de investigación científica. (Crédito: Intel Corporation)
Noticias destacadas
- La amplia cartera de productos de HPC e IA de Intel ofrece un desempeño competitivo, con la serie Intel® Data Center GPU Max Series 1550 mostrando un aumento promedio de velocidad del 30% en comparación con la Nvidia H100 en una amplia gama de cargas de trabajo científicas. 1
- Las actualizaciones de la hoja de ruta de productos destacan Granite Rapids, una CPU de nueva generación para hacer frente a las demandas de ancho de banda de memoria, y la GPU Falcon Shores para satisfacer un conjunto diverso y en expansión de cargas de trabajo para HPC e IA.
- El Laboratorio Nacional Argonne e Intel anuncian las especificaciones completas de Aurora, el impulso del sistema y la iniciativa internacional con Hewlett Packard Enterprise (HPE) y sus socios para llevar el poder de la IA generativa y los grandes modelos de lenguaje (LLM) a la ciencia y la sociedad.
- Las herramientas oneAPI e IA mejoradas ayudan a los desarrolladores a acelerar las cargas de trabajo de HPC e IA y mejoran la portabilidad del código en múltiples arquitecturas.
HAMBURGO, Alemania, 22 de mayo de 2023 - En la ISC High Performance Conference, Intel mostró su liderazgo en rendimiento para cargas de trabajo de computación de alto rendimiento (HPC) e inteligencia artificial (AI); compartió su cartera de futuros productos de HPC e AI, unificados por el modelo de programación abierto oneAPI; y anunció un ambicioso esfuerzo internacional para utilizar el superordenador Aurora con el fin de desarrollar modelos generativos de AI para la ciencia y la sociedad.
Más: Conferencia Internacional de Supercomputación 2023 (Hoja de declaración)
"Intel está comprometido a servir a la comunidad de HPC e IA con productos que ayuden a los clientes y usuarios finales a realizar descubrimientos revolucionarios con mayor rapidez", dijo Jeff McVeigh, vicepresidente corporativo de Intel y director general del Grupo de Supercomputación. "Nuestra cartera de productos que abarca la serie Intel® Xeon® CPU Max, la serie Intel® Data Center GPU Max, los procesadores escalables Intel® Xeon® de 4ª generación y Habana® Gaudí®2 están superando a la competencia en una gran variedad de cargas de trabajo, ofreciendo ventajas energéticas y de coste total de propiedad, democratizando la IA y proporcionando capacidad de elección, apertura y flexibilidad."
Intel en ISC'23: sesión de Jeff McVeigh sobre HPC acelerada por IA (repetición)
"En la ISC High Performance Conference de Hamburgo (Alemania), Jeff McVeigh, vicepresidente corporativo y director general del Super Compute Group de Intel, ofreció una presentación sobre cómo la inteligencia artificial (IA) está acelerando la informática de alto rendimiento (HPC). Como parte de su charla del 22 de mayo de 2023, McVeigh reveló datos de rendimiento de los productos de HPC e IA de Intel, anunció las últimas actualizaciones con el Laboratorio Nacional Argonne y describió la hoja de ruta de HPC de Intel. (Crédito: Intel Corporation)"
Desempeño de hardware a escala
En la presentación especial de Intel, McVeigh destacó los últimos resultados de rendimiento competitivo en toda la gama de hardware y compartió con los clientes el fuerte impulso de la empresa.
- La serie Intel® Data Center GPU Max supera a la tarjeta Nvidia H100 PCIe en un promedio del 30% en cargas de trabajo diversas1, mientras que el proveedor de software independiente Ansys muestra una mejora de velocidad del 50% para la GPU de la serie Max en comparación con la H100 en aplicaciones de HPC aceleradas por IA. 2
- La CPU Xeon de la serie Max, el único procesador x86 con memoria de alto ancho de banda, muestra una mejora del 65% en comparación con el procesador Genoa de AMD en la prueba comparativa de High Performance Conjugate Gradients (HPCG).1, usando menos energía. El alto ancho de banda de memoria se ha destacado como una de las características más deseadas para los clientes de HPC. 3
- Los procesadores escalables Intel Xeon de 4ta Generación (los más utilizados en HPC) ofrecen en promedio un 50 % más de velocidad en comparación con los procesadores Milan de AMD 4 mientras que el nuevo clúster HPC Xeon de 4ª generación de la empresa energética BP ofrece un aumento del rendimiento de 8 veces en comparación con los procesadores de generaciones anteriores, con una mejora en la eficiencia energética. 2
- El acelerador de aprendizaje profundo Gaudi2 ofrece un rendimiento competitivo en el entrenamiento y la inferencia de aprendizaje profundo, con un rendimiento hasta 2,4 veces superior al de Nvidia A100.1
Recientemente, los clientes han anunciado nuevas instalaciones con los procesadores Intel Xeon de 4ta generación y la serie Max:
- La Universidad de Kyoto está implementando los procesadores Intel Xeon de 4ta generación en los sistemas Laurel 3 y Cinnamon 3, y los procesadores de la serie Xeon Max en el sistema Camphor 3.
- Cineca implementó el sistema Leonardo con procesadores Intel Xeon de 4ta generación.
- El Laboratorio de Energética Láser de la Universidad de Rochester está implementando un clúster con procesadores Intel Xeon de 4ta generación.
- Servicio Meteorológico Nacional de Argentina implementará un sistema con CPUs y GPUs de la serie Max.
Además, el Cambridge Open Zettascale Lab en la Universidad de Cambridge ha implementado el primer banco de pruebas de GPU Max en el Reino Unido y está obteniendo resultados positivos en aplicaciones de dinámica molecular e imágenes biológicas. Asimismo, RIKEN anunció un memorando de entendimiento (MoU) con Intel con el objetivo de acelerar la investigación y el desarrollo conjunto en el campo de las tecnologías de computación avanzada, como la IA, HPC y la computación cuántica. Como parte del MoU, RIKEN también colaborará con Intel Foundry Services para crear prototipos de estas nuevas soluciones.
Procesadores competitivos para cada carga de trabajo
Las cargas de trabajo dinámicas y emergentes de HPC e IA requieren una cartera completa de soluciones de hardware y software. McVeigh brindó una descripción general de las ofertas de centros de datos de Intel que ofrecen muchas opciones y soluciones para la comunidad de HPC, ayudando a democratizar la IA.
En su presentación, McVe alto presentó las CPU de próxima generación de Intel para satisfacer las exigencias de alto ancho de banda de memoria. Intel lideró el ecosistema para desarrollar un nuevo tipo de DIMM - Multiplexer Combined Ranks (MCR) - para Granite Rapids. MCR alcanza velocidades de 8.800 megatransferencias por segundo basadas en DDR5 y más de 1,5 terabytes/segundo (TB/s) de capacidad de ancho de banda de memoria en un sistema de dos zócalos. Este aumento del ancho de banda de la memoria es fundamental para alimentar el creciente número de núcleos de las CPU modernas y permitir eficiencia y flexibilidad.
Intel también reveló un nuevo subsistema basado en GPU x8 Max Series optimizado para IA de Supermicro, diseñado para acelerar el entrenamiento de aprendizaje profundo. Además del acceso a través de Intel® Developer Cloud beta5 a finales de este año, varios OEM ofrecerán soluciones con subsistemas y tarjetas PCIe de la serie Max GPUs x4 y x8, que estarán disponibles en el verano.
La próxima generación de GPU Max Series de Intel, Falcon Shores, proporcionará a los clientes la flexibilidad necesaria para implementar combinaciones de CPU y GPU discretas a nivel de sistema para las nuevas y cambiantes cargas de trabajo del futuro. Falcon Shores se basa en una arquitectura modular basada en mosaicos y permitirá:
- Soportar tipos de datos HPC y AI, desde FP64 hasta BF16 y FP8.
- Permitir hasta 288GB de memoria HBM3 con un ancho de banda total de hasta 9.8TB/s y una mejora significativa en la E/S de alta velocidad.
- Empoderar el modelo de programación CXL.
- Presentar una interfaz de programación de GPU unificada a través de oneAPI.
IA generativa para la ciencia
El Laboratorio Nacional Argonne, en colaboración con Intel y HPE, anunció planes para crear una serie de modelos generativos de IA para la comunidad de investigación científica.
"El proyecto pretende aprovechar todo el potencial del superordenador Aurora para producir un recurso que pueda utilizarse para la ciencia descendente en los laboratorios del Departamento de Energía y en colaboración con otros", declaró Rick Stevens, director asociado del laboratorio de Argonne.
Estos modelos generativos de IA para la ciencia se entrenarán con textos generales, códigos, textos científicos y datos científicos estructurados procedentes de la biología, la química, la ciencia de los materiales, la física, la medicina y otras fuentes.
Los modelos resultantes (con hasta 1 billón de parámetros) se utilizarán en una variedad de aplicaciones científicas, desde el diseño de moléculas y materiales, hasta la síntesis del conocimiento a partir de millones de fuentes, para proponer nuevos e interesantes experimentos en biología de sistemas, química de síntesis y materiales energéticos, ciencia del clima y cosmología. El modelo también se utilizará para acelerar la identificación de procesos biológicos relacionados con el cáncer y otras enfermedades, así como para sugerir objetivos para el diseño de medicamentos.
Argonne está liderando una colaboración internacional para impulsar el proyecto, en la que participa Intel, HPE, laboratorios del Departamento de Energía, universidades estadounidenses e internacionales, organizaciones sin fines de lucro y socios internacionales como RIKEN.
Además, Intel y el Laboratorio Nacional Argonne destacaron el progreso de la instalación, las especificaciones del sistema y los primeros resultados de rendimiento de Aurora:
- Intel ha completado la entrega física de más de 10.000 blades para el superordenador Aurora.
- El sistema completo de Aurora, construido utilizando supercomputadoras HPE Cray EX, contará con 63,744 GPUs, 21,248 CPUs y 1,024 nodos de almacenamiento DAOS. Y utilizará la red Ethernet HPE Slingshot de alto rendimiento
- Los primeros resultados muestran un rendimiento líder en cargas de trabajo reales de ciencia e ingeniería, con hasta el doble de rendimiento que las GPU AMD MI250, una mejora del 20% sobre H100 en la aplicación de mecánica cuántica QMCPACK y un escalado casi lineal hasta cientos de nodos 2
Se espera que Aurora ofrezca más de 2 exaflops de rendimiento de cálculo de precisión doble en su lanzamiento este año.
Computación acelerada abierta y productiva a través de oneAPI
A nivel mundial, aproximadamente el 90% de todos los desarrolladores se benefician o utilizan software desarrollado u optimizado por Intel. 6 Desde el lanzamiento del modelo de programación oneAPI en 2020, los desarrolladores han demostrado el uso de oneAPI en diversas CPU, GPU, FPGA y silicios de IA de múltiples proveedores de hardware, abordando los desafíos de los modelos de programación acelerada de un solo proveedor. Las últimas herramientas de Intel oneAPI ofrecen mejoras de velocidad para aplicaciones de HPC con la descarga de GPU de OpenMP, amplían el soporte para OpenMP y Fortran, y aceleran la IA y el aprendizaje profundo a través de frameworks optimizados, como TensorFlow y PyTorch, y herramientas de IA, lo que permite mejoras de rendimiento de varias órdenes de magnitud.
oneAPI facilita la programación multiarquitectura para los programadores a través de la implementación SYCL de oneAPI, los complementos oneAPI para procesadores Nvidia y AMD desarrollados por Codeplay, y la herramienta de compatibilidad Intel® DPC++ (basada en SYCLomatic de código abierto) que migra código de CUDA a SYCL y C++ donde típicamente el 90-95% del código migra automáticamente.. 7 El código resultante de SYCL muestra un rendimiento comparable al mismo código que se ejecuta en sistemas de lenguajes nativos de Nvidia y AMD.Los datos muestran que el código SYCL para la aplicación de astrofísica DPEcho, ejecutándose en la GPU de la serie Max, supera al mismo código CUDA en la Nvidia H100 en un 48%. Los datos muestran que el código SYCL para la aplicación de astrofísica DPEcho, ejecutándose en la GPU de la serie Max, supera al mismo código CUDA en la Nvidia H100 en un 48%.1
El ecosistema más amplio también está adoptando SYCL. Eviden, una empresa de Atos, anunció CEPP one+ con Intel, un servicio de modernización de códigos de HPC/AI basado en el Centro de Excelencia en Programación de Rendimiento (CEPP, por sus siglas en inglés) de Eviden. CEPP one+ se centrará en la adopción de SYCL y OpenMP, preparando a la comunidad para un panorama de computación heterogénea al mismo tiempo que brinda libertad de elección en hardware a través de estándares abiertos.
Descargos de responsabilidad y configuración:
1 Visite la página de la International Supercomputing Conference (ISC'23) sobre intel.com/performanceindex las cargas de trabajo y las configuraciones. Los resultados pueden variar.
2 Intel no controla ni audita los datos de terceros. Le recomendamos consultar otras fuentes para evaluar la precisión.
3Actualización del mercado de HPC de Hyperion Research, noviembre de 2022.
4 El Intel® Xeon® 8480+ tiene un rendimiento de HPC geomean 1.5 veces mayor en 27 benchmarks y aplicaciones en comparación con el AMD EPYC 7763. Los resultados pueden variar.
5 La versión beta de Intel Developer Cloud está disponible actualmente para determinados clientes precalificados.
6 Según las estimaciones de Intel.
7 Las estimaciones de Intel a marzo de 2023. Basado en mediciones sobre un conjunto de 85 benchmarks y muestras de HPC, con ejemplos como Rodinia, SHOC y PENNANT. Los resultados pueden variar.
El rendimiento variará según el uso, la configuración y otros factores. Los resultados de rendimiento se basan en pruebas realizadas en las fechas mostradas en las configuraciones y pueden no reflejar todas las actualizaciones públicamente disponibles. Ningún producto o componente puede ser absolutamente seguro.
Sus costos y resultados pueden variar.
Las tecnologías Intel pueden requerir la activación de hardware, software o servicios.
Las declaraciones en este documento que se refieren a planes futuros o expectativas son declaraciones prospectivas. Estas declaraciones se basan en expectativas actuales e implican muchos riesgos e incertidumbres que podrían causar que los resultados reales difieran materialmente de los expresados o implícitos en dichas declaraciones. Para obtener más información sobre los factores que podrían causar diferencias materiales en los resultados reales, consulta nuestro comunicado de ganancias más reciente y los informes presentados ante la SEC (Comisión de Bolsa de Valores por sus siglas en inglés) en www.intc.com.