ASUS Server annuncia una svolta nelle prestazioni AI con 26 record nei benchmark MLPerf Inference v2.0

2022/05/27

Milano, 27 maggio 2022 - ASUS, l'azienda IT leader nei sistemi server, schede madri per server e workstation, ha pubblicato per la prima volta i propri risultati da quando è entrata a far parte della MLCommons Association lo scorso dicembre. E ha stabilito fin da subito nuovi record di prestazioni in dozzine di benchmark.

Nello specifico, durante l'ultimo round di MLPerf Inference 2.0 i server ASUS hanno stabilito 26 record nella divisione Data Center Closed in sei attività di benchmark AI, superando tutti gli altri server con le stesse configurazioni GPU. Il risultato è stato ottenuto con 12 record raggiunti da un server ASUS ESC8000A-E11 configurato con otto GPU NVIDIA® A100 Tensor Core da 80 GB. Altri 14 record sono arrivati da un server ASUS ESC4000A-E11 con quattro GPU NVIDIA A30 Tensor Core da 24 GB.

Questi risultati rivoluzionari dimostrano l’assoluto predominio in termini di prestazioni dei server ASUS nell'arena dell'AI, in grado di offrire un significativo valore aggiunto alle aziende, agli enti e alle società che necessitano di implementazioni AI-based e garantire prestazioni ottimali per i data center.

ASUS ha stabilito 26 record nell'inferenza AI e domina le tabelle dei risultati in sei attività

Il benchmark MLPerf Inference 2.0 simula sei comuni processi di calcolo inferenziale AI, tra cui la classificazione delle immagini (ResNet50), il rilevamento di oggetti (SSD-ResNet34), la segmentazione delle immagini mediche (3D-Unet), il riconoscimento vocale (RNN-T), l'elaborazione del linguaggio naturale (BERT) e la sua raccomandazione (DLRM).

L'ASUS ESC8000A-E11 ha ottenuto diverse posizioni di leadership sulle prestazioni, tra cui:

- Classificazione di immagini con 298.105 immagini elaborate al secondo in ResNet50

- Riconoscimento degli oggetti con 7.462,06 immagini completate al secondo in SSD-ResNet34

- Elaborazione di immagini mediche con 24,3 immagini processate al secondo in 3D-UNet

- Completate 26.005,7 domande e risposte processate al secondo in BERT

- Completate 2.363.760 previsioni di clic al secondo in DLRM

Risultati tabella ESC8000A-E11

Division

Task

Model

Results

Accuracy

Scenario

Units

Data Center Closed

Image
classification

ResNet50

210,011

99.00

Server

queries/s

298,105

Offline

samples/s

Object detection
(large)

SSD-ResNet34

7,096.10

99.00

Server

queries/s

7,462.06

Offline

samples/s

Medical imaging

3D-UNet

24.3

99.00

Offline

samples/s

24.3

99.90

Offline

samples/s

Speech-to-text

RNN-T

94,996.9

99.00

Server

queries/s

102,738

Offline

samples/s

Natural-language processing

BERT

23,489.5

99.00

Server

queries/s

26,005.7

Offline

samples/s

11,491.3

99.90

Server

queries/s

13,168.2

Offline

samples/s

Recommendation

DLRM

1,601,300

99.00

Server

queries/s

2,363,760

Offline

samples/s

1,601,300

99.90

Server

queries/s

2,363,760

Offline

samples/s

L'ASUS ESC4000A-E11 ha ottenuto a sua volta posizioni di vertice nelle prestazioni in diversi ambiti, tra cui:

- Classificazione di immagini con 73.814,5 immagini elaborate al secondo in ResNet50

- Riconoscimento degli oggetti con 1.957,18 immagini completate al secondo in SSD-ResNet34

- Elaborazione di immagini mediche con 6,83 immagini processate al secondo in 3D-UNet

- Completate 27.299,2 conversioni di riconoscimento vocale al secondo in RNNT

- Completate 6.896,01 domande e risposte al secondo in BERT

- Completate 574.371 previsioni di clic al secondo in DLRM

Risultati tabella ESC40001-E11

Division

Task

Model

Results

Accuracy

Scenario

Units

Data Center Closed

Image
classification

ResNet50

68,192

99.00

Server

queries/s

73,814.5

Offline

samples/s

Object detection
(large)

SSD-ResNet34

1,886.75

99.00

Server

queries/s

1,957.18

Offline

samples/s

Medical imaging

3D-UNet

6.83

99.00

Offline

samples/s

6.83

99.90

Offline

samples/s

Speech-to-text

RNN-T

17,391.4

99.00

Server

queries/s

27,299.2

Offline

samples/s

Natural-language processing

BERT

6,367.97

99.00

Server

queries/s

6,896.01

Offline

samples/s

2,917.66

99.90

Server

queries/s

3,383.03

Offline

samples/s

Recommendation

DLRM

560,158

99.00

Server

queries/s

574,371

Offline

samples/s

560,158

99.90

Server

queries/s

574,371

Offline

samples/s

Miglioramento costante delle prestazioni AI grazie al design del server ottimizzato

La dozzina di record MLPerf Inference 2.0 stabiliti dal server ASUS 4U ESC8000A-E11 certificato NVIDIA e configurato con otto GPU NVIDIA A100 PCIe Tensor Core da 80 GB e due CPU AMD EPYC 7763, dimostra la sua eccezionale scalabilità per applicazioni che coinvolgono l'intelligenza artificiale e l'apprendimento automatico. Il suo design termico ottimizzato, con tunnel per il flusso d'aria indipendenti per CPU e GPU, offre soluzioni di raffreddamento ad alta efficienza ai data center raffreddati ad aria.

L'ASUS ESC4000A-E11 che ha stabilito un totale di 14 record MPLerf Inference 2.0 è un server certificato NVIDIA, alloggiato nel formato 2U più compatto del mercato e configurato con quattro GPU NVIDIA A30 PCIe Tensor Core da 24 GB e due CPU AMD EPYC 7763. Offre un'ampia gamma di acceleratori grafici, oltre al supporto per l'interconnessione GPU ad alta velocità NVIDIA NVLink, per esprimere le massime prestazioni in ambito AI.

Disponibilità e prezzo

Maggiori informazioni sui server ASUS sono disponibili al sito https://servers.asus.com/.

###