ASUS Server anuncia un gran avance en el rendimiento de la IA con 26 registros en MLPerf Inference v2.0

2022/06/18
Los diseños optimizados y las avanzadas capacidades se combinan para elevar los servidores de ASUS a posiciones dominantes en las tablas de rendimiento de inferencias de IA


PUNTOS CLAVE

  • Los servidores ASUS dominan en la IA: Los diseños avanzados permiten obtener unos resultados de rendimiento extraordinarios, logrando 26 récords en seis tareas de referencia de IA
  • El ESC8000A-E11 alcanza 12 récords: Servidor de doble zócalo 4U con diseño térmico optimizado que incluye túneles de flujo de aire independientes para la GPU y la CPU
  • El ESC4000A-E11 alcanza 14 récords: Servidor 2U de un solo zócalo que ofrece una amplia gama de aceleradores gráficos y compatibilidad con NVIDIA NVLink

TAIPEI, Taiwán, 5 de mayo de 2022 — ASUS, la empresa de TI líder en sistemas de servidores, placas base para servidores y estaciones de trabajo, ha publicado hoy sus resultados por primera vez desde que se unió a la Asociación MLCommons el pasado diciembre, estableciendo al instante nuevos récords de rendimiento en docenas de tareas evaluadas.
En concreto, en la última ronda de MLPerf Inference 2.0, los servidores ASUS establecieron 26 récords en la división de centros de datos cerrados en seis tareas de pruebas de IA, superando a todos los demás servidores con las mismas configuraciones de GPU. Los logros consisten en 12 récords conseguidos con un servidor ASUS ESC8000A-E11 configurado con ocho GPUs NVIDIA® A100 Tensor Core de 80 GB; y 14 discos con un servidor ASUS ESC4000A-E11 con cuatro GPUs NVIDIA A30 Tensor Core de 24 GB.
Estos innovadores resultados demuestran claramente el dominio del rendimiento de los servidores ASUS en el ámbito de la IA, aportando un valor significativo a las organizaciones que buscan implementar la IA y garantizar un rendimiento óptimo en los centros de datos.

ASUS establece 26 récords en inferencia de IA y domina las tablas de resultados en seis tareas

La prueba de referencia MLPerf Inference 2.0 cubre seis cargas de trabajo habituales en el ámbito de la IA, como la clasificación de imágenes (ResNet50), la detección de objetos (SSD-ResNet34), la segmentación de imágenes médicas (3D-Unet), el reconocimiento del habla (RNN-T), el procesamiento del lenguaje natural (BERT) y la recomendación (DLRM).

El ESC8000A-E11 ha alcanzado múltiples posiciones de liderazgo en cuanto a rendimiento, entre ellas:
  • Procesó la clasificación de 298.105 imágenes por segundo en ResNet50
  • Ha completado el reconocimiento de objetos de 7.462,06 imágenes por segundo en SSD-ResNet34
  • Procesamiento de 24,3 imágenes médicas por segundo en 3D-UNet
  • Realización de 26.005,7 preguntas y respuestas por segundo en BERT
  • Realización de 2.363.760 predicciones de clics por segundo en DLRM

Tabla de resultados del ESC8000A-E11

División

Tarea

Modelo

Resultados

Exactitud

Escenario

Unidades

Centro de datos cerrado

Clasificación de imágenes

ResNet50

210,011

99.00

Servidor

consultas/s

298,105

Fuera de línea

muestras/s

Detección de objetos
(grande)

SSD-ResNet34

7,096.10

99.00

Servidor

consultas/s

7,462.06

Fuera de línea

muestras/s

Imágenes médicas

3D-UNet

24.3

99.00

Fuera de línea

muestras/s

24.3

99.90

Fuera de línea

muestras/s

Conversión de voz a texto

RNN-T

94,996.9

99.00

Servidor

consultas/s

102,738

Fuera de línea

muestras/s

Procesamiento del lenguaje natural

BERT

23,489.5

99.00

Servidor

consultas/s

26,005.7

Fuera de línea

muestras/s

11,491.3

99.90

Servidor

consultas/s

13,168.2

Fuera de línea

muestras/s

Recomendación

DLRM

1,601,300

99.00

Servidor

consultas/s

2,363,760

Fuera de línea

muestras/s

1,601,300

99.90

Servidor

consultas/s

2,363,760

Fuera de línea

muestras/s



El ESC4000A-E11 ha alcanzado múltiples posiciones de liderazgo en cuanto a rendimiento, incluyendo:
  • Procesamiento de 73.814,5 imágenes de clasificación por segundo en ResNet50
  • Completado el reconocimiento de objetos de 1.957,18 imágenes por segundo en SSD-ResNet34
  • Procesamiento de 6,83 imágenes médicas por segundo en 3D-UNet
  • Realización de 27.299,2 conversiones de reconocimiento de voz por segundo en RNNT
  • Realización de 6.896,01 preguntas y respuestas por segundo en BERT
  • Realización de 574.371 predicciones de clics por segundo en DLRM

División

Tarea

Modelo

Resultados

Exactitud

Escenario

Unidades

Centro de datos cerrado

Clasificación de imágenes

ResNet50

68,192

99.00

Servidor

consultas/s

73,814.5

Fuera de línea

muestras/s

Detección de objetos
(grande)

SSD-ResNet34

1,886.75

99.00

Servidor

consultas/s

1,957.18

Fuera de línea

muestras/s

Imágenes médicas

3D-UNet

6.83

99.00

Fuera de línea

muestras/s

6.83

99.90

Fuera de línea

muestras/s

Conversión de voz a texto

RNN-T

17,391.4

99.00

Servidor

consultas/s

27,299.2

Fuera de línea

muestras/s

Procesamiento del lenguaje natural

BERT

6,367.97

99.00

Servidor

consultas/s

6,896.01

Fuera de línea

muestras/s

2,917.66

99.90

Servidor

consultas/s

3,383.03

Fuera de línea

muestras/s

Recomendación

DLRM

560,158

99.00

Servidor

consultas/s

574,371

Fuera de línea

muestras/s

560,158

99.90

Servidor

consultas/s

574,371

Fuera de línea

muestras/s



Continua mejora del rendimiento de la IA con un diseño de servidor optimizado

La docena de récords de MLPerf Inference 2.0 12 establecidos por el ESC8000A-E11 de 4U con certificación NVIDIA -configurado con ocho GPUs NVIDIA A100 PCIe Tensor Core de 80 GB y dos CPUs AMD EPYC 7763- demuestra su suprema escalabilidad para la IA y el aprendizaje automático. Su optimizado diseño térmico, con túneles de flujo de aire independientes para la CPU y la GPU, aporta una solución de refrigeración de alta eficiencia a los centros de datos refrigerados por aire.
El ESC4000A-E11, certificado por NVIDIA, alojado en el tamaño de 2U más compacto del mercado -y configurado con cuatro GPUs NVIDIA A30 PCIe Tensor Core de 24 GB y dos CPUs AMD EPYC 7763- estableció un total de 14 récords de MPLerf Inference 2.0. Ofrece una amplia gama de aceleradores gráficos, además de compatibilidad con la interconexión de GPU de alta velocidad NVLink de NVIDIA, para dar rienda suelta al máximo rendimiento de la IA.



DISPONIBILIDAD Y PRECIOS

Los servidores ASUS están disponibles en todo el mundo. Póngase en contacto con su representante local de ASUS para obtener más información.

Asus MX: https://www.asus.com/mx/
Asus Business: https://www.asus.com/mx/Business/



CONTACTOS DE PRENSA

Rocío Montano | Marketing Asus OPBG MX
Rocio_Montano@asus.com

Ricardo Cauich | Marketing Asus OPBG MX
Ricardo_Cauich@asus.com



Acerca de ASUS

ASUS es un líder tecnológico global que proporciona los dispositivos, componentes y soluciones más innovadores e intuitivos del mundo para ofrecer experiencias increíbles que mejoran la vida de las personas en todo el mundo. Con su equipo de 5.000 expertos internos en I+D, ASUS es mundialmente conocida por reimaginar continuamente las tecnologías de hoy para el mañana, y gana más de 11 premios cada día por su calidad, innovación y diseño, además de figurar entre las empresas más admiradas del mundo según la revista Fortune.