Obtenga un mejor desempeño para cada dólar que gaste en AWS* ejecutando sus datos en Intel

Descubra la ventaja de elegir instancias basadas en procesadores escalables Intel® Xeon®.

Puntos clave

  • Las instancias de AWS* basadas en los procesadores Intel® ofrecen un mayor desempeño por dólar para cargas de trabajo importantes

  • Por ejemplo, las instancias basadas en un procesador escalable Intel® Xeon® tienen un valor monetario 4,15 veces mayor para las cargas de trabajo en informática de alto desempeño (HPC) que las instancias basadas en AMD EPYC*1

  • Las bases de datos, las cargas de trabajo con uso intensivo de memoria y aquellas basadas en la web también proporcionan un mejor valor en Intel

BUILT IN - ARTICLE INTRO SECOND COMPONENT

¿Está obteniendo el mejor valor de su inversión en AWS*?

La nube brinda la escalabilidad, la confiabilidad y la flexibilidad que necesita, pero no todas las nubes son iguales: algunas instancias entregan mucho más valor que otras. Si desea comprender cuál es la elección óptima para sus cargas de trabajo, debe revisar el desempeño de esas cargas de trabajo específicas. Es posible que una estadística de desempeño genérica no le indique mucho sobre los resultados que obtendrá, especialmente si ejecuta cargas de trabajo que requieren un uso intensivo de procesamiento o de datos. Asimismo, conocer el precio por instancia no dice mucho sobre el precio por transacción ni sobre ninguna otra métrica comercial o de desempeño real. Debe realizar un análisis detallado.

Por ejemplo, ¿sabía que las instancias de AWS* basadas en procesadores escalables Intel® Xeon® proporcionan un desempeño hasta 4,15 veces mejor por dólar para cargas de trabajo de informática de alto desempeño (HPC)1, en comparación con instancias basadas en procesadores AMD EPYC*, según el análisis de alto desempeño Linpack*? Según el análisis de desempeño LAMMPS*, brindan un desempeño hasta 2,19 veces mejor por dólar.1 Para las cargas de trabajo de base de datos en AWS, los procesadores escalables Intel® Xeon® ofrecen un desempeño hasta 2,84 veces mejor por dólar2. Además, para cargas de trabajo con ancho de banda de memoria intensivo, pueden permitir un desempeño hasta 2,25 veces mejor por dólar.3 Si ejecuta cargas de trabajo basadas en la web, como Java* del lado del servidor o WordPress PHP/HHVM*, es posible que le proporcione un desempeño hasta 1,74 veces mejor por dólar en Intel.4

Si ya utiliza los procesadores Intel®, puede ahorrar cambiándose a una instancia más moderna, también basada en el procesador escalable Intel® Xeon®. TSO Logic ofrece recomendaciones basadas en datos para calcular el tamaño y el costo correctos en las nubes públicas y privadas. Analizó millones de puntos de datos en su repositorio de 100 000 instancias de datos de clientes anónimos de AWS. ¿Cuál fue la conclusión? Se podría ahorrar dinero en el 19 % de las instancias actuales si se cambian a tipos de instancias más recientes y pequeñas de Amazon EC2* que ofrecen un desempeño equivalente a un menor costo. Por ejemplo, la migración de las instancias más antiguas C4.8XLarge a las más recientes C5.4XLarge puede ahorrar hasta un 50 % de los costos de la nube, más de USD 3000 por instancia.5 Aún más, los ahorros pueden incrementarse rápidamente si obtiene licencias de software por núcleo. TSO Logic determinó que una carga de trabajo se podía entregar con 40 núcleos menos si se ejecuta en instancias más recientes basadas en el procesador escalable Intel® Xeon® de 2da generación.5 Si ejecuta una base de datos comercial con una licencia de USD 1800 por núcleo, podría ahorrar USD 72 000 por año si reduce el recuento de núcleos en 40.5

Los procesadores escalables Intel® Xeon® y los procesadores escalables Intel® Xeon® de 2da generación cuentan con una cantidad de optimizaciones integradas para agilizar las cargas de trabajo. El formato de número INT8 permite descartar detalles innecesarios con el objetivo de agilizar el aprendizaje automático e Intel® Deep Learning Boost (Intel® DL Boost) proporciona una nueva instrucción del procesador para acelerar la inferencia en aplicaciones como la clasificación de imágenes, el reconocimiento de voz, la traducción de idiomas y la detección de objetos. Intel® Advanced Vector Extensions 512 (Intel® AVX-512) proporciona instrucciones de vector de 512 bits para acelerar los cálculos de puntos flotantes, incluidas las simulaciones científicas. La Tecnología Intel® Turbo Boost le permite ejecutar los núcleos más rápido que la frecuencia de operación base a fin de brindarle un desempeño adicional cuando más lo necesite. Para ayudar a proteger los datos, Intel® Advanced Encryption Standard New Instructions (Intel® AES-NI) proporciona instrucciones de procesador con el objetivo de acelerar el cifrado y descifrado.

Avisos y exenciones de responsabilidad:

Es posible que las cargas de trabajo y el software utilizados en las pruebas de desempeño se hayan optimizado en términos de desempeño solo en microprocesadores Intel®. Las pruebas de desempeño, como SYSmark* y MobileMark*, se miden utilizando sistemas de computación, componentes, software, operaciones y funciones específicos. Cualquier cambio en alguno de esos factores podría generar un cambio en los resultados. Debe consultar otra información y pruebas de desempeño que lo ayuden a evaluar plenamente las compras consideradas, incluido el desempeño de ese producto al combinarse con otros. Para obtener más información, visite www.intel.com/benchmarks.

Los resultados de desempeño se basan en pruebas realizadas en la fecha indicada en la configuración y es posible que no reflejen todas las actualizaciones de seguridad que están a disposición del público. Consulte la divulgación de configuración para obtener más información. Ningún producto o componente puede proporcionar una seguridad absoluta.
Intel no controla ni audita los datos de terceros. Debe revisar este contenido, consultar otras fuentes y confirmar si los datos a los que se hacen referencia son exactos.

Los escenarios de reducción de costo publicados se utilizan como ejemplo de cómo un producto equipado con Intel® dado, en circunstancias y configuraciones específicas, puede afectar los costos futuros y proporcionar recortes en cuanto a costo. Las circunstancias pueden variar. Intel no garantiza costos o reducciones de costos.

Las características y los beneficios de las tecnologías Intel® dependen de la configuración del sistema y podrían requerir hardware y software habilitados o la activación del servicio. El desempeño varía según la configuración del sistema. Consulte con el fabricante del sistema o al distribuidor minorista. O bien, puede encontrar más información en intel.com.

Intel, el logotipo de Intel y Xeon son marcas comerciales de Intel Corporation o sus subsidiarias en EE. UU. o en otros países.

*Otros nombres y marcas podrían ser reclamados como propiedad de terceros. 
© Intel Corporation

Información sobre productos y desempeño

1

Resultados calculados por Intel con los precios de AWS (USD/hora, período estándar de un año, sin inversión inicial) a fecha 12 de enero del 2019.
Se realizaron pruebas de desempeño por dólar en instancias de AWS* EC2 M5 y M5a (https://aws.amazon.com/ec2/instance-types/), en las que se comparó el desempeño por dólar en 96 vCPU con procesadores escalables Intel® Xeon® con el desempeño por dólar del procesador AMD EPYC*.

Carga de trabajo: LAMMPS*
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 2,19 veces (una cifra mayor es mejor).
La ciencia de los materiales de HPC - LAMMPS (una cifra mayor es mejor):
Instancia (Intel) de AWS M5.24xlarge, versión de LAMMPS: 2018-08-22 (código: https://lammps.sandia.gov/download.html), carga de trabajo: agua, 512 000 partículas, Intel ICC 18.0.3.20180410, biblioteca Intel® MPI para sistemas operativos Linux*, actualización 3 compilación 20180411 de la versión 2018, clasificaciones de MPI 48, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, puntuación de 137,5 intervalos por segundo, según mediciones de Intel del 31/10/18.
Instancia (AMD) de AWS M5a.24xlarge, versión de LAMMPS: 2018-08-22 (código: https://lammps.sandia.gov/download.html), carga de trabajo: agua, 512 000 partículas, Intel ICC 18.0.3.20180410, biblioteca Intel® MPI para sistemas operativos Linux*, actualización 3 compilación 20180411 de la versión 2018, clasificaciones de MPI 48, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, puntuación de 55,8 intervalos por segundo, según mediciones de Intel del 7/11/18.
Cambios para que AMD admita AVX2 (AMD solo admite AVX2, por lo que esos cambios fueron necesarios):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi

Carga de trabajo: Linpack* de alto desempeño
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 4,15 veces (una cifra mayor es mejor).
HPC Linpack (una cifra mayor es mejor):
Instancia (Intel) de AWS M5.24xlarge, HP Linpack versión 2.2 (https://software.intel.com/en-us/articles/intel-mkl-benchmarks-suite Directorio: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64), Intel ICC 18.0.3.20180410 con AVX512, biblioteca Intel® MPI para sistemas operativos Linux*, actualización 3 compilación 20180411 de la versión 2018, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 procesos de MPI, puntuación de 3152 Gb/s, según mediciones de Intel del 31/10/18.
Instancia (AMD) de AWS M5a.24xlarge, HP Linpack versión 2.2, (origen de HPL: http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz; versión 2.2, icc (ICC) 18.0.2 20180210 utilizada para compilar y vincular a la biblioteca BLIS versión 0.4.0; https://github.com/flame/blis; marcadores de compilador Addt’l: -O3 -funroll-loops -W -Wall –qopenmp; make arch=zen OMP_NUM_THREADS=8; 6 procesos de MPI), Intel ICC 18.0.3.20180410 con AVX2, biblioteca Intel® MPI para sistemas operativos Linux*, actualización 3 compilación 20180411 de la versión 2018, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 procesos de MPI, puntuación de 677,7 Gb/s, según mediciones de Intel del 07/11/18.

2

Resultados calculados por Intel con los precios de AWS (USD/hora, período estándar de un año, sin inversión inicial) a fecha 12 de enero del 2019.
Se realizaron pruebas de desempeño por dólar en instancias de AWS* EC2 R5 y R5a (https://aws.amazon.com/ec2/instance-types/), en las que se comparó el desempeño por dólar en 96 vCPU con procesadores escalables Intel® Xeon® con el desempeño por dólar del procesador AMD EPYC*.

Carga de trabajo: HammerDB* PostgreSQL*
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 1,85 veces (una cifra mayor es mejor).
Base de datos: HammerDB – PostgreSQL (una cifra mayor es mejor):
Instancia (Intel) de AWS R5.24xlarge, HammerDB 3.0 PostgreSQL 10.2, memoria: 768 GB, hipervisor: KVM, tipo de almacenamiento: EBS io1, volumen del disco: 200 GB, almacenamiento total de 200 GB, versión de Docker: 18.06.1-ce, Red Hat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB shared_buffer, 256 almacenes, 96 usuarios. Puntuación “NOPM” 439931, según mediciones de Intel entre el 11/12/18 y el 14/12/18.
Instancia (AMD) de AWS R5a.24xlarge, HammerDB 3.0 PostgreSQL 10.2, memoria: 768 GB, hipervisor: KVM, tipo de almacenamiento: EBS io1, volumen del disco: 200 GB, almacenamiento total de 200 GB, versión de Docker: 18.06.1-ce, Red Hat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB shared_buffer, 256 almacenes, 96 usuarios. Puntuación “NOPM” 212903, según mediciones de Intel del 12/20/18.

Carga de trabajo: MongoDB*
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 2,84 veces (una cifra mayor es mejor).
Base de datos: MongoDB (una cifra mayor es mejor):
Instancia (Intel) de AWS R5.24xlarge, MongoDB v4.0, revista desactivada, sincronización con el sistema de archivos desactivada, wiredTigeCache = 27 GB, maxPoolSize = 256, 7 instancias de MongoDB, 14 VM de cliente, 1 cliente de YCSB por VM, 96 subprocesos por cliente de YCSB, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, puntuación de 1229288 operaciones por segundo, según mediciones de Intel del 10/12/18.
Instancia (AMD) de AWS R5a.24xlarge, MongoDB v4.0, revista desactivada, sincronización con el sistema de archivos desactivada, wiredTigeCache = 27 GB, maxPoolSize = 256, 7 instancias de MongoDB, 14 VM de cliente, 1 cliente de YCSB por VM, 96 subprocesos por cliente de YCSB, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, puntuación de 388596 operaciones por segundo, según mediciones de Intel del 10/12/18.
Para obtener más información, visite www.intel.la/benchmarks.

3

Instancia AWS M5.4xlarge (Intel), transmisión McCalpin (versión OMP), (Fuente: https://www.cs.virginia.edu/stream/FTP/Code/stream.c), Intel ICC 18.0.3 20180410 con AVX512, -qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explicit, Puntaje: 81216,7 MB/s, según mediciones de Intel el 06/12/18.
Instancia AWS M5a.4xlarge (AMD), transmisión McCalpin (versión OMP), (Fuente: https://www.cs.virginia.edu/stream/FTP/Code/stream.c), Intel ICC 18.0.3 20180410 con AVX2, -DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY : proclist=[0-7:1], granularity=thread,explicit, puntaje: 32154,4 MB/s, según mediciones de Intel el 06/12/18.
Descargo de responsabilidad de OpenFOAM: esta oferta no está aprobada ni respaldada por OpenCFD Limited, fabricante y distribuidor del software OpenFOAM mediante www.openfoam.com, y dueño de las marcas comerciales OPENFOAM® y OpenCFD®.

4

Resultados calculados por Intel con los precios de AWS (USD/hora, período estándar de un año, sin inversión inicial) a fecha 12 de enero del 2019.
Se realizaron pruebas de desempeño por dólar en instancias de AWS* EC2 M5 y M5a (https://aws.amazon.com/ec2/instance-types/), en las que se comparó el desempeño por dólar en 96 vCPU con procesadores escalables Intel® Xeon® con el desempeño por dólar del procesador AMD EPYC*.

Carga de trabajo: Java* del lado del servidor 1 JVM
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 1,74 veces (una cifra mayor es mejor).
Java del lado del servidor (una cifra mayor es mejor):
Instancia (Intel) de AWS M5.24xlarge, análisis de desempeño de servidor Java, sin enlace NUMA, 2JVM, OpenJDK 10.0.1, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, puntuación de 101767 transacciones por segundo, según mediciones de Intel del 16/11/18.
Instancia (AMD) de AWS M5a.24xlarge, análisis de desempeño de servidor Java sin enlace NUMA, 2JVM, OpenJDK 10.0.1, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, puntuación de 52068 transacciones por segundo, según mediciones de Intel del 16/11/18.

Carga de trabajo: PHP/HHVM* de Wordpress*
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 1,75 veces (una cifra mayor es mejor).
Web frontal de Wordpress (una cifra mayor es mejor):
Instancia (Intel) de AWS M5.24xlarge, desempeño/wordpress de oss versión 4.2.0; versión 10.2.19-MariaDB-1:10.2.19+maria~bionic; versión de la carga de trabajo: u'4.2.0; subprocesos del cliente: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, puntuación de 3626,11 TPS, según mediciones de Intel del 16/11/18.
Instancia (AMD) de AWS M5a.24xlarge, desempeño/wordpress de oss versión 4.2.0; versión 10.2.19-MariaDB-1:10.2.19+maria~bionic; versión de la carga de trabajo: u'4.2.0; subprocesos del cliente: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, puntuación de 1838,48 TPS, según mediciones de Intel del 16/11/18.
Para obtener más información, visite www.intel.la/benchmarks.

5

Fuente: Informe de investigación de TSO Logic/Intel: “Los nuevos avances de Intel y Amazon Web Services permiten un mayor ahorro en la nube”.