• 不可思議. AI . 釋放潛力
    • 不可思議. AI . 釋放潛力
    • ASUS ESC AI POD
      NVIDIA® GB200 NVL72
      • 36 個 NVIDIA Grace CPU 超級晶片
      • 72 個 NVIDIA Blackwell GPU Tensor 核心
      • 第五代 NVIDIA NVLink 技術
      • NVIDIA 支援 兆級參數規模 LLM 推理和訓練
      • 擴大生態系統準備就緒
      • 華碩基礎架構管理部署
      • 端對端服務
  • NVIDIA Blackwell GPU 突破

    華碩 ESC AI POD 包含 72 個 NVIDIA Blackwell GPU,每個 GPU 包含 2080 億個電晶體。 NVIDIA Blackwell GPU 都配備兩個具有光罩限制的晶粒,在一個GPU 中透過每秒 10 TB (TB/秒) 的晶片對晶片技術互連。

    • 30X
      LLM Inference
      VS.

      NVIDIA H100 Tensor Core GPU

    • 4X
      LLM Training
      VS.

      H100

    • 25X
      Energy Efficiency
      VS.

      H100

    • 18X
      Data Processing
      VS.

      CPU

    • LLM inference and energy efficiency: TTL = 50 milliseconds (ms) real time, FTL = 5s, 32,768 input/1,024 output, NVIDIA HGX™ H100 scaled over InfiniBand (IB) vs. GB200 NVL72, training 1.8T MOE 4096x HGX H100 scaled over IB vs. 456x GB200 NVL72 scaled over IB. Cluster size: 32,768
    • A database join and aggregation workload with Snappy / Deflate compression derived from TPC-H Q4 query. Custom query implementations for x86, H100 single GPU and single GPU from GB200 NLV72 vs. Intel Xeon 8480+
    • 此為預計效能,之後將有可能更新。
  • 超越硬體界限
    華碩軟體驅動解決方案

    與業界相比,華碩專注於打造客製化資料中心解決方案,並提供從混合式伺服器到邊緣運算部署的端到端服務。 我們不僅有硬體的優勢,我們還透過為企業提供軟體解決方案來加倍努力。 我們的軟體驅動引擎包括系統驗證和遠端部署,確保無縫操作以加速人工智慧開發。

  • 在一體機中探索更多的 AI 突破
  • 無與倫比的速度
    第五代 NVLink 技術 NVIDIA GB200 NVL72

    NVIDIA NVLink 交換器具有 144 個端口,交換容量為 14.4 TB/s,允許 9 個交換器與單個 NVLink 域內 72 個 NVIDIA Blackwell GPU 上每個的 NVLink 連接埠互連。

    • 單一運算中的 NVLink 主動連線嘗試確保直接連線到所有 GPU

    • NVLink connectivity in single rack

  • 最大限度提高效率,最大限度減少熱量
    液冷架構
    • 單一計算托盤中的熱水和冷水流動

    • 我們的解決方案優化了從華碩 ESC AI POD 到整個資料中心,最後到冷卻水塔的冷卻效率,完成水循環。 我們提供液體到空氣或液體到液體冷卻解決方案的選擇,以確保有效散熱。

  • 減少能源浪費,優化 TCO
    華碩電源分配板
    配電板將 48V DC 轉換為 12V DC,供應 NVIDIA Blackwell GPU
    • $1000

      每個機架每年節省高達 1,000 美元的電費,以實現投資最大化和維護最小化

    • 35°C

      受益於溫度降低約 35°C

    • 11.3X

      PDB 壽命顯著提高 11.3 倍