Aproveche de mejor forma su inversión de tecnologías en la nube
Ofrezca el potente desempeño por dólar que necesita en las tecnologías Intel®. Las cargas de trabajo críticas de uso intensivo de datos, como las bases de datos, la informática de alto desempeño (HPC) y la web, presentan un mejor desempeño a un menor costo total de propiedad en nubes basadas en arquitecturas Intel®. 1 2 3 4 5
2.84 veces mejor desempeño
Hasta 2.84 veces mejor desempeño/$ en cargas de trabajo de bases de datos, incluidos HammerDB PostgreSQL* y MongoDB*.1
4.15 veces mejor desempeño
Hasta 4.15 veces mejor desempeño/$ en LAMMPS* y LINPACK* de alto desempeño.2
1.74 veces mejor desempeño
Mejor desempeño/$ en Server-Side Java y 1.74 veces mayor desempeño/$ en WordPress PHP/HHVM.3
2.25 veces mayor desempeño
Hasta 2.25 veces mayor desempeño/$ para aplicaciones de ancho de banda de memoria.4
Temas de actualidad sobre la nube híbrida
Impulse la innovación en aplicaciones con la nube híbrida
Descubra cómo impulsar la innovación en las aplicaciones con la nube híbrida y cómo incrementar sus capacidades para TI y desarrolladores.
Habilite a los desarrolladores con la nube híbrida
Acceda a perspectivas de Forrester Consulting acerca de cómo las empresas están haciendo evolucionar sus capacidades de TI y habilitando a los desarrolladores con la nube híbrida.
Optimización de la carga de trabajo de la nube híbrida
Desarrollar la solución de nube adecuada para su empresa no es fácil. Siga leyendo para obtener más información acerca de las decisiones relacionadas con la infraestructura de TI.
Beneficios de la nube híbrida para el análisis avanzado
Descubra cómo lograr beneficios a partir de la nube híbrida para análisis avanzado con esta variedad de contenidos de Intel y Forrester.
Perspectivas acerca de la estrategia de nube híbrida
Intel comparte su trayecto hacia la nube híbrida a medida que los modelos empresariales viran hacia la adopción de la nube híbrida como estrategia de TI integral.
Acelere la transformación de TI con la solución Intel® Select
Innove más rápidamente y ofrezca servicios potentes con las soluciones Intel® Select para nube híbrida.
Descubra la nube híbrida Microsoft Azure Stack*
Innove rápidamente y lleve potentes servicios a sus instalaciones con la nube híbrida Microsoft Azure Stack* en los procesadores Intel® Xeon®.
Colaboración en una infraestructura hiperconvergente
La tecnología VMware vSAN* combinada con los procesadores Intel® Xeon® y la tecnología Intel® Optane™ produce incrementos de 13 veces en el desempeño.
Migración de VM sin inconvenientes
En un entorno de CPU mixto, la migración de VM equivale a tiempo de inactividad. Para evitar los molestias, elija los servidores equipados con procesadores Intel®.
Acelere la inteligencia empresarial con la memoria persistente Intel® Optane™ DC
Alimente sus cargas de trabajo de más alto valor con una combinación innovadora de persistencia de datos, desempeño, capacidad y asequibilidad.
Vea el infográfico sobre memoria persistente Intel® Optane™ DC ›
Resuelva los problemas actuales
La nube híbrida en GoDaddy reduce el costo total de propiedad de la infraestructura
GoDaddy ha cambiado su infraestructura de TI a la nube híbrida para reducir el costo total de propiedad de la infraestructura y permitir más rapidez en la innovación.
Modernice su infraestructura de TI
Modernizar significa más que actualizar su software. No permita que la infraestructura heredada retrase a su empresa.
GDPR: Duras medidas de protección de datos para afrontar las amenazas de hoy
Las soluciones basadas en la arquitectura Intel® ofrecen la flexibilidad y las capacidades incorporadas para dar respuesta a los numerosos desafíos de GDPR de manera eficaz.
Existe una nube apropiada para su empresa
Beneficios de la nube híbrida
Beneficios de la nube privada
Beneficios de la nube pública
Desarrollar el futuro juntos
Intel colabora con socios clave de la industria para ofrecer soluciones del perímetro a la nube en informática, análisis e inteligencia artificial. Obtenga más información acerca de cómo estamos optimizando el software, los servicios y las plataformas.
Microsoft
Windows Server* 2016 permite contar con funcionalidades avanzadas del centro de datos con prestaciones de informática definida por software, almacenamiento y redes que son elásticas y rentables. Ha sido optimizado para las tecnologías de Intel y ofrece un gran desempeño, optimización, eficiencia y adaptabilidad.
VMware
Los modelos comerciales disruptivos significan que la empresa debe innovar para mantenerse a la vanguardia y controlar costos. Las tecnologías de nube confiables de VMware, HyTrust e Intel ofrecen soluciones.
Red Hat
Conozca la asociación entre Intel y Red Hat, y cómo estamos combinando tecnologías para la transformación digital.
Recursos de nube
Intel® Cloud Builders
Súmese a una comunidad que reduce las barreras técnicas y acelera la innovación. Las empresas y los proveedores de servicios de nube pueden acceder a perspectivas con respecto a cómo desarrollar, operar y optimizar nubes sobre la base de una infraestructura totalmente optimizada y fácil de implementar.
Proveedores de servicios de nube
La ampliación de los servicios de nube y las tecnologías emergentes como la inteligencia artificial y la realidad virtual están generando una demanda de servicios ágiles, eficientes y optimizados para cargas de trabajo. Se está creando una gran oportunidad para los proveedores de servicios de nube (CSP) que utilizan tecnologías y programas avanzados de la plataforma Intel®.
Productos y tecnologías relacionados
Procesadores Intel® Xeon® escalables
Optimización para cargas de trabajo para lograr compatibilidad con aplicaciones de alta demanda e impulsar perspectivas que se puedan llevar a la acción.
Más información sobre los procesadores escalables Intel® Xeon®
Productos Intel® Ethernet
Intel® Ethernet serie 700 de 10/25/40 GbE ofrece una amplia interoperabilidad, alta confiabilidad y eficiencia operacional mejorada.
Tecnología Intel® Optane™
Una flamante nueva clase de memoria de primer nivel que cambia nuestra manera de desarrollar y utilizar las computadoras.
Solución seleccionada Intel®
Simplifique y acelere la implementación de su infraestructura de centros de datos.
Inteligencia artificial
Acelere soluciones, automatice operaciones, obtenga mejores perspectivas y tome decisiones más inteligentes.
Computación de alto desempeño (HPC)
Conozca las soluciones, los marcos, las arquitecturas y los procesadores de informática de alto desempeño (HPC) de Intel.
Análisis Avanzado
Vea cómo el análisis avanzado utilizado en diversas industrias está dando impulso a la transformación empresarial.
Información sobre productos y desempeño
https://aws.amazon.com/ec2/instance-types/), en las que se comparó el desempeño por dólar en 96 vCPU con procesadores escalables Intel® Xeon® con el desempeño por dólar del procesador AMD EPYC*.
Carga de trabajo: HammerDB* PostgreSQL*
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 1,85 veces (una cifra mayor es mejor)
Base de datos: HammerDB – PostgreSQL (una cifra mayor es mejor):
Instancia (Intel) de AWS R5.24xlarge, HammerDB 3.0 PostgreSQL 10.2, memoria: 768 GB, hipervisor: KVM; tipo de almacenamiento: EBS io1, volumen del disco: 200 GB, almacenamiento total de 200 GB, versión de Docker: 18.06.1-ce, Red Hat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB shared_buffer, 256 almacenes, 96 usuarios. Puntuación “NOPM” 439931, según mediciones de Intel entre el 11/12/18 y el 14/12/18.
Instancia (AMD) de AWS R5a.24xlarge, HammerDB 3.0 PostgreSQL 10.2, memoria: 768 GB, hipervisor: KVM; tipo de almacenamiento: EBS io1, volumen del disco: 200 GB, almacenamiento total de 200 GB, versión de Docker: 18.06.1-ce, Red Hat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB shared_buffer, 256 almacenes, 96 usuarios. Puntuación “NOPM” 212903, según mediciones de Intel del 12/20/18.
Carga de trabajo: MongoDB*
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 2,84 veces (una cifra mayor es mejor)
Base de datos: MongoDB (una cifra mayor es mejor):
Instancia (Intel) de AWS R5.24xlarge, MongoDB v4.0, revista desactivada, sincronización con el sistema de archivos deshabilitada, wiredTigeCache = 27 GB, maxPoolSize = 256; 7 instancias de MongoDB, 14 VM de clientes, 1 cliente de YCSB por VM, 96 subprocesos por cliente de YCSB, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, puntuación de 1229288 operaciones por segundo, según mediciones de Intel del 10/12/18.
Instancia (AMD) de AWS R5a.24xlarge, MongoDB v4.0, revista desactivada, sincronización con el sistema de archivos deshabilitada, wiredTigeCache = 27 GB, maxPoolSize = 256, 7 instancias de MongoDB, 14 VM de cliente, 1 cliente de YCSB por VM, 96 subprocesos por cliente de YCSB, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, puntuación de 388596 operaciones por segundo, según mediciones de Intel del 10/12/18.
Para obtener más detalles, visite www.intel.la/benchmarks.
Resultados calculados por P2CA de Intel con los precios de AWS (USD/hora, período estándar de un año, sin inversión inicial) a fecha 12 de enero del 2019.
Se realizaron pruebas de desempeño por dólar en instancias de AWS* EC2 M5 y M5a (https://aws.amazon.com/ec2/instance-types/), en las que se comparó el desempeño por dólar en 96 vCPU con procesadores escalables Intel® Xeon® con el desempeño por dólar del procesador AMD EPYC*.
Carga de trabajo: LAMMPS*
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 4,15 veces (una cifra mayor es mejor)
La ciencia de los materiales de HPC - LAMMPS (una cifra mayor es mejor):
Instancia (Intel) de AWS M5.24xlarge, versión de LAMMPS: 2018-08-22 (código: https://lammps.sandia.gov/download.html), carga de trabajo: agua, 512 000 partículas, Intel ICC 18.0.3.20180410, biblioteca Intel® MPI para sistemas operativos Linux*, actualización 3 compilación 20180411 de la versión 2018, clasificaciones de MPI 48, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, puntuación de 137,5 intervalos por segundo, según mediciones de Intel del 31/10/18.
Instancia (AMD) de AWS M5a.24xlarge, versión de LAMMPS: 2018-08-22 (código: https://lammps.sandia.gov/download.html), carga de trabajo: agua, 512 000 partículas, Intel ICC 18.0.3.20180410, biblioteca Intel® MPI para sistemas operativos Linux*, actualización 3 compilación 20180411 de la versión 2018, clasificaciones de MPI 48, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, puntuación de 55,8 intervalos por segundo, según mediciones de Intel del 7/11/18.
Cambios para que AMD admita AVX2 (AMD solo admite AVX2, por lo que esos cambios fueron necesarios):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
Carga de trabajo: Linpack* de alto desempeño
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 4,15 veces (una cifra mayor es mejor)
HPC Linpack (una cifra mayor es mejor):
Instancia (Intel) de AWS M5.24xlarge, HP Linpack versión 2.2 (https://software.intel.com/en-us/articles/intel-mkl-benchmarks-suite Directorio: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64), Intel ICC 18.0.3.20180410 con AVX512, biblioteca Intel® MPI para sistemas operativos Linux*, actualización 3 compilación 20180411 de la versión 2018, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 procesos de MPI, puntuación de 3152 GB/s, según mediciones de Intel del 31/10/18.
Instancia (AMD) de AWS M5a.24xlarge, HP Linpack versión 2.2, (origen de HPL: http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz; versión 2.2, icc (ICC) 18.0.2 20180210 utilizada para compilar y vincular a la biblioteca BLIS versión 0.4.0; https://github.com/flame/blis; marcadores de compilador Addt’l: -O3 -funroll-loops -W -Wall –qopenmp; make arch=zen OMP_NUM_THREADS=8; 6 procesos de MPI), Intel ICC 18.0.3.20180410 con AVX2, biblioteca Intel® MPI para sistemas operativos Linux*, actualización 3 compilación 20180411 de la versión 2018, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 procesos de MPI, puntuación de 677,7 GB/s, según mediciones de Intel del 07/11/18.
Resultados calculados por P2CA de Intel con los precios de AWS (USD/hora, período estándar de un año, sin inversión inicial) a fecha 12 de enero del 2019.
Se realizaron pruebas de desempeño por dólar en instancias de AWS* EC2 M5 y M5a (https://aws.amazon.com/ec2/instance-types/), en las que se comparó el desempeño por dólar en 96 vCPU con procesadores escalables Intel® Xeon® con el desempeño por dólar del procesador AMD EPYC*.
Carga de trabajo: Java* del lado del servidor 1 JVM
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 1,74 veces (una cifra mayor es mejor)
Java del lado del servidor (una cifra mayor es mejor):
Instancia (Intel) de AWS M5.24xlarge, análisis de desempeño de servidor Java, sin enlace NUMA, 2JVM, OpenJDK 10.0.1, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, puntuación de 101767 transacciones por segundo, según mediciones de Intel del 16/11/18.
Instancia (AMD) de AWS M5a.24xlarge, análisis de desempeño de servidor Java sin enlace NUMA, 2JVM, OpenJDK 10.0.1, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, puntuación de 52068 transacciones por segundo, según mediciones de Intel del 16/11/18.
Carga de trabajo: PHP/HHVM* de Wordpress*
Resultados: desempeño por dólar de AMD EPYC = línea base de 1. Desempeño por dólar del procesador escalable Intel® Xeon® = 1,75 veces (una cifra mayor es mejor)
Web frontal de Wordpress (una cifra mayor es mejor):
Instancia (Intel) de AWS M5.24xlarge, desempeño/wordpress de oss versión 4.2.0; versión 10.2.19-MariaDB-1:10.2.19+maria~bionic; versión de la carga de trabajo: u'4.2.0; subprocesos del cliente: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, puntuación de 3626,11 TPS, según mediciones de Intel del 16/11/18.
Instancia (AMD) de AWS M5a.24xlarge, desempeño/wordpress de oss versión 4.2.0; versión 10.2.19-MariaDB-1:10.2.19+maria~bionic; versión de la carga de trabajo: u'4.2.0; subprocesos del cliente: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, puntuación de 1838,48 TPS, según mediciones de Intel del 16/11/18.
Para obtener más detalles, visite www.intel.la/benchmarks.
Instancia AWS M5.4xlarge (Intel), Transmisión McCalpin (versión OMP), (Fuente: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); Intel ICC 18.0.3 20180410 con AVX512, -qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qoptstreaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explicit, Puntaje: 81216,7 MB/s, según lo medido por Intel el 06/12/18.
Instancia AWS M5a.4xlarge (AMD), Transmisión McCalpin (versión OMP), (Fuente: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); Intel ICC 18.0.3 20180410 con AVX2, -DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY : proclist=[0-7:1], granularity=thread,explicit, Puntaje: 32154,4 MB/s, según lo medido por Intel el 06/12/18.
Descargo de responsabilidad de OpenFOAM: Esta oferta no está aprobada ni respaldada por OpenCFD Limited, fabricante y distribuidor del software OpenFOAM mediante www.openfoam.com, y dueño de las marcas comerciales OpenFOAM* y OpenCFD*.
Valoración de AWS según lo establecido el 12 de enero del 2019 en la Lista estándar de precios de instancias reservadas por un plazo de 1 año (Standard 1-Year term Reserved Instance Pricing) (https://aws.amazon.com/ec2/pricing/reserved-instances/pricing/) y la Lista a pedido de precios por hora para usar Linux/Unix (On Demand Linux/Unix Usage Pricing per hour) (https://aws.amazon.com/ec2/pricing/on-demand/).
Mejora en el procesamiento de inferencia 30 veces superior en el procesador Intel® Xeon® Platino 9282 con Intel® Deep Learning Boost (Intel® DL Boost): según pruebas de Intel realizadas el 26/02/2019. Plataforma: Dragon rock, 2 zócalos, procesador Intel® Xeon® Platinum 9282 (56 núcleos por zócalo), HT activado, turbo activado, memoria total de 768 GB (24 ranuras/32 GB/2933 MHz), BIOS: SE5C620.86B.0D.01.0241.112020180249, Kernel CentOS 7 3.10.0-957.5.1.el7.x86_64, marco de aprendizaje profundo: Optimización de Intel® para Caffe* versión: https://github.com/intel/caffe d554cbf1, ICC 2019.2.187, MKL DNN versión: V0.17 (hash de confirmación: 830a10059a018cd2634d94195140cf2d8790a75a), modelo: https://github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt, BS = 64, sin datos sintéticos de capa de datos: 3 x 224 x 224, 56 instancias/2 zócalos, tipo de datos: INT8 frente a prueba realizada por Intel el 11 de julio del 2017: CPU procesador Intel® Xeon® Platinum 8180 a 2,50 GHz (28 núcleos) de 2 zócalos, HT desactivado, turbo desactivado, regulador de escala definido como “desempeño” a través del controlador intel_pstate, RAM DDR4-2666 ECC de 384 GB. CentOS Linux* versión 7.3.1611 (Core), Linux* kernel 3.10.0-514.10.2.el7.x86_64. SSD: unidad de estado sólido Intel® para centros de datos serie S3700 (800 GB, SATA de 6 Gb/s y 2,5", 25 nm, MLC). Desempeño medido con variables de entorno: KMP_AFFINITY='granularity=fine, compactas, OMP_NUM_THREADS=56, conjunto de frecuencia de la CPU con frecuencia de alimentación de la CPU-set -d 2.5G -u 3.8G -g performance. Caffe: (http://github.com/intel/caffe/), revisión f96b759f71b2281835f690af267158b82b150b5c. Inferencia medida con el comando “caffe time --forward_only”, capacitación medida con el comando “caffe time”. En el caso de las topologías “ConvNet”, se utilizó el conjunto de datos sintético. Para otras topologías, los datos se almacenaron en el almacenamiento local y en la memoria caché antes de la capacitación. Especificaciones de topología de https://github.com/intel/caffe/tree/master/models/intel_optimized_models (ResNet-50). Compilador Intel® C++ versión 17.0.2 20170213, bibliotecas pequeñas de la Biblioteca central de matemáticas Intel® (Intel® MKL) versión 2018.0.20170425. Caffe se ejecuta con “numactl -l”.