Informazioni su prodotti e prestazioni
3Risultati calcolati da Intel P2CA utilizzando i prezzi AWS ($/ora, durata standard di 1 anno, nessun anticipo) al 12 gennaio 2019.
Test delle prestazioni per dollaro effettuato su istanze AWS* EC2 R5 e R5a ( https://aws.amazon.com/ec2/instance-types/), confrontando le prestazioni per dollaro dei processori scalabili Intel® Xeon® 96 vCPU con le prestazioni per dollaro del processore AMD EPYC*.
Carico di lavoro: HammerDB* PostgreSQL*
Risultati: prestazioni per dollaro di AMD EPYC = baseline pari a 1; prestazioni per dollaro dei processori scalabili Intel® Xeon® = 1,85 (un valore più alto indica un risultato migliore)
Database: HammerDB - PostgreSQL (un valore più alto indica un risultato migliore):
Istanza AWS R5.24xlarge (Intel), HammerDB 3.0 PostgreSQL 10.2, memoria: 768 GB, hypervisor: KVM; tipo di storage: EBS io1, volume disco 200 GB, storage totale 200 GB, versione Docker: 18.06.1-ce, RedHat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, shared_buffer 6.400 MB, 256 warehouse, 96 utenti. Punteggio "NOPM" 439931, misurato da Intel in data 11/12/18 - 14/12/18.
Istanza AWS R5a.24xlarge (AMD), HammerDB 3.0 PostgreSQL 10.2, memoria: 768 GB, hypervisor: KVM; tipo di storage: EBS io1, volume disco 200 GB, storage totale 200 GB, versione Docker: 18.06.1-ce, RedHat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, shared_buffer 6.400 MB, 256 warehouse, 96 utenti. Punteggio "NOPM" 212903, misurato da Intel il 20/12/2018.
Carico di lavoro: MongoDB*
Risultati: prestazioni per dollaro di AMD EPYC = baseline pari a 1; prestazioni per dollaro dei processori scalabili Intel® Xeon® = 2,84 (un valore più alto indica un risultato migliore)
Database: MongoDB (un valore più alto indica un risultato migliore):
Istanza AWS R5.24xlarge (Intel), MongoDB v4.0, journal disabilitato, sincronizzazione con il file system disabilitata, wiredTigeCache = 27 GB, maxPoolSize = 256; 7 istanze MongoDB, 14 VM client, 1 client YCSB per VM, 96 thread per client YCSB, RedHat* Enterprise Linux 7.5, kernel 3.10.0-862.el7.x86_64, punteggio 1229288 operazioni/sec, misurato da Intel il 10/12/18.
Istanza AWS R5a.24xlarge (AMD), MongoDB v4.0, journal disabilitato, sincronizzazione con il file system disabilitata, wiredTigeCache = 27 GB, maxPoolSize = 256; 7 istanze MongoDB, 14 VM client, 1 client YCSB per VM, 96 thread per client YCSB, RedHat* Enterprise Linux 7.5, kernel 3.10.0-862.el7.x86_64, punteggio 388596 operazioni/sec, misurato da Intel il 10/12/18.
Per maggiori dettagli, visitare il sito Web all'indirizzo www.intel.it/benchmarks.
4Risultati calcolati da Intel P2CA utilizzando i prezzi AWS ($/ora, durata standard di 1 anno, nessun anticipo) al 12 gennaio 2019.
Test delle prestazioni per dollaro effettuato su istanze AWS* EC2 M5 e M5a ( https://aws.amazon.com/ec2/instance-types/), confrontando le prestazioni per dollaro dei processori scalabili Intel® Xeon® 96 vCPU con le prestazioni per dollaro del processore AMD EPYC*.
Carico di lavoro: LAMMPS*
Risultati: prestazioni per dollaro di AMD EPYC = baseline pari a 1; prestazioni per dollaro dei processori scalabili Intel® Xeon® = 4,15 (un valore più alto indica un risultato migliore)
HPC scienza dei materiali - LAMMPS (un valore più alto indica un risultato migliore):
Istanza AWS M5.24xlarge (Intel), versione LAMMPS: 2018-08-22 (codice: https://lammps.sandia.gov/download.html), carico di lavoro: acqua - 512.000 particelle, Intel ICC 18.0.3.20180410, libreria MPI Intel® per Linux* OS, versione 2018 update 3 build 20180411, 48 rank MPI, RedHat* Enterprise Linux 7.5, kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, punteggio 137,5 timestep/sec, misurato da Intel il 31/10/18.
Istanza AWS M5a.24xlarge (AMD), versione LAMMPS: 2018-08-22 (codice: https://lammps.sandia.gov/download.html), carico di lavoro: acqua - 512.000 particelle, Intel ICC 18.0.3.20180410, libreria MPI Intel® per Linux* OS, versione 2018 update 3 build 20180411, 48 rank MPI, RedHat* Enterprise Linux 7.5, kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, punteggio 55,8 timestep/sec, misurato da Intel il 07/11/18.
Modifiche per AMD per il supporto di AVX2 (AMD supporta solo AVX2, pertanto queste modifiche sono state necessarie):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
Carico di lavoro: Linpack* ad alte prestazioni
Risultati: prestazioni per dollaro di AMD EPYC = baseline pari a 1; prestazioni per dollaro dei processori scalabili Intel® Xeon® = 4,15 (un valore più alto indica un risultato migliore)
HPC Linpack (un valore più alto indica un risultato migliore):
Istanza AWS M5.24xlarge (Intel), HP Linpack versione 2.2 ( https://software.intel.com/en-us/articles/intel-mkl-benchmarks-suite directory: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_Linpack/bin_intel/intel64), Intel ICC 18.0.3.20180410 con AVX512, libreria MPI Intel® per Linux* OS, versione 2018 update 3 build 20180411, RedHat* Enterprise Linux 7.5, kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 processi MPI, punteggio 3152 GB/s, misurato da Intel il 31/10/18.
Istanza AWS M5a.24xlarge (AMD), HP Linpack versione 2.2, (sorgente HPL: Http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz; versione 2.2; icc (ICC) 18.0.2 20180210 utilizzato per compilare e collegare la libreria BLIS versione 0.4.0; https://github.com/flame/blis; flag aggiuntivi del compiler: -O3 -funroll-loops -W -Wall –qopenmp; make arch=zen OMP_NUM_THREADS=8; 6 processi MPI). Intel ICC 18.0.3.20180410 con AVX2, libreria MPI Intel® per Linux* OS, versione 2018 update 3 build 20180411, RedHat* Enterprise Linux 7.5, kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 processi MPI, punteggio 677,7 GB/s, misurato da Intel il 07/11/2018.
5Risultati calcolati da Intel P2CA utilizzando i prezzi AWS ($/ora, durata standard di 1 anno, nessun anticipo) al 12 gennaio 2019.
Test delle prestazioni per dollaro effettuato su istanze AWS* EC2 M5 e M5a ( https://aws.amazon.com/ec2/instance-types/), confrontando le prestazioni per dollaro dei processori scalabili Intel® Xeon® 96 vCPU con le prestazioni per dollaro del processore AMD EPYC*.
Carico di lavoro: Server Side Java* 1 JVM
Risultati: prestazioni per dollaro di AMD EPYC = baseline pari a 1; prestazioni per dollaro dei processori scalabili Intel® Xeon® = 1,74 (un valore più alto indica un risultato migliore)
Server Side Java (un valore più alto indica un risultato migliore):
Istanza AWS M5.24xlarge (Intel), benchmark Java Server senza binding NUMA, 2 JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, kernel 3.10.0-862.el7.x86_64, punteggio 101767 transazioni/sec, misurato da Intel il 16/11/18.
Istanza AWS M5a.24xlarge (AMD), benchmark Java Server senza binding NUMA, 2 JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, kernel 3.10.0-862.el7.x86_64, punteggio 52068 transazioni/sec, misurato da Intel il 16/11/18.
Carico di lavoro: Wordpress* PHP/HHVM*
Risultati: prestazioni per dollaro di AMD EPYC = baseline pari a 1; prestazioni per dollaro dei processori scalabili Intel® Xeon® = 1,75 (un valore più alto indica un risultato migliore)
Front-end Web Wordpress (un valore più alto indica un risultato migliore):
Istanza AWS M5.24xlarge (Intel), oss-performance/wordpress ver 4.2.0; ver 10.2.19-MariaDB-1:10.2.19+maria~bionic; versione carico di lavoro: u'4.2.0; thread client: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, kernel Linux 4.15.0-1025-aws, punteggio 3626,11 transazioni/sec, misurato da Intel il 16/11/18.
Istanza AWS M5a.24xlarge (AMD), oss-performance/wordpress ver 4.2.0; ver 10.2.19-MariaDB-1:10.2.19+maria~bionic; versione carico di lavoro: u'4.2.0; thread client: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, kernel Linux 4.15.0-1025-aws, punteggio 1838,48 transazioni/sec, misurato da Intel il 16/11/18.
Per maggiori dettagli, visitare il sito Web all'indirizzo www.intel.it/benchmarks.
6AWS M5.4xlarge (Intel) Instance, McCalpin Stream (versione OMP), (Fonte: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); Intel ICC 18.0.3 20180410 con AVX512, -qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qoptstreaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explicit, Punteggio di 81216,7 MB/s in base alle misurazioni effettuate da Intel il 6/12/18.
AWS M5a.4xlarge (AMD) Instance, McCalpin Stream (versione OMP), (Fonte: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); Intel ICC 18.0.3 20180410 con AVX2, -DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY : proclist=[0-7:1], granularity=thread,explicit, Punteggio di 32154,4 MB/s in base alle misurazioni effettuate da Intel il 6/12/18.
Limitazione di responsabilità di OpenFOAM: la presente offerta non è approvata né raccomandata da OpenCFD Limited, produttore e distributore del software OpenFOAM tramite www.openfoam.com, nonché proprietario dei marchi OpenFOAM* e OpenCFD*.
Prezzi AWS a partire dal 12 gennaio 2019. Prezzi standard delle istanze riservate per un anno (https://aws.amazon.com/ec2/pricing/reserved-instances/pricing/) Prezzi all'ora per l'uso on demand di Linux/Unix (https://aws.amazon.com/ec2/pricing/on-demand/).
7Miglioramento della produttività di inferenza 30 volte superiore con il processore Intel® Xeon® Platinum 9282 con Intel® Deep Learning Boost: testato da Intel a partire dal 26/02/2019. Piattaforma: Dragon rock a 2 socket con processore Intel® Xeon® Platinum 9282 (56 core per socket), Hyper-Threading abilitato, Turbo Boost abilitato, Memoria totale 768 GB (24 slot/32 GB/2933 MHz), BIOS: SE5C620.86B.0D.01.0241.112020180249, CentOS 7 Kernel 3.10.0-957.5.1.el7.x86_64, Framework per il deep learning: Intel® Optimization for Caffe* versione: https://github.com/intel/caffe d554cbf1, ICC 2019.2.187, MKL DNN versione: v0.17 (commit hash: 830a10059a018cd-2634d94195140cf2d8790a75a), modello: https://github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt, BS=64, No datalayer DummyData: 3x224x224, 56 istanze/2 socket, Datatype: INT8 a confronto con i test eseguiti da Intel a partire dall'11 luglio 2017: sistema a 2 socket con CPU Intel® Xeon® Platinum 8180 da 2,50 GHz (28 nuclei), Hyper-Threading disabilitato, Turbo Boost disabilitato, gestore di scalabilità impostato su "prestazioni" tramite intel_pstate driver, 384 GB di RAM DDR4-2666 ECC. CentOS Linux* versione 7.3.1611 (Core), kernel Linux 3.10.0-514.10.2.el7.x86_64. SSD: Intel® SSD Data Center serie S3700 (800 GB, 2,5", SATA da 6 Gb/s, 25 nm, MLC) Prestazioni misurate con: Variabili ambientali: KMP_AFFINITY='granularity=fine, compact‘, OMP_NUM_THREADS=56, frequenza della CPU impostata con cpupower frequency-set -d 2,5G -u 3,8G -g performance. Caffe: (http://github.com/intel/caffe/), revisione f96b759f71b2281835f690af267158b82b150b5c. Inferenza misurata con il comando "caffe time --forward_only", addestramento misurato con il comando "caffe time". Per topologie "ConvNet", sono stati usati set di dati sintetici. Per altre topologie, i data erano archiviati su storage locale e memorizzati nella cache in memoria prima dell'addestramento. Specifiche della topologia da https://github.com/intel/caffe/tree/master/models/intel_optimized_models (ResNet-50). Compilatore Intel® C++ v. 17.0.2 20170213, piccole librerie Intel® Math Kernel Library (Intel® MKL) versione 2018.0.20170425. Caffe eseguito con "numactl -l".