基礎架構解決方案文字,含視覺效果設計。

基礎架構解決方案

  • 使用 ASUS AI 基礎架構解決方案發揮每個詞元的潛力

    人工智慧,或稱 AI,正在發揮強大的影響力 – 用前所未有的速度重塑我們的世界。主動管理是保有競爭力的關鍵,要探索不斷演變的 AI 領域,ASUS 的 AI 基礎架構解決方案不可或缺。ASUS 提供全方位的 AI 解決方案,包括 AI 伺服器和整合式機架、用於大規模運算的 ESC AI POD,還有最重要的先進軟體平台,可自訂功能處理所有工作負載,提升您在 AI 競賽中的實力以領先群雄。

    此圖片強調 ASUS 全方位 AI 伺服器解決方案運用在資料中心的場景。前景展示各種服務,包括諮詢、基礎架構設計、軟體平台、伺服器安裝與驗證以及售後支援。
    此圖片強調 ASUS 全方位 AI 伺服器解決方案運用在資料中心的場景。前景展示各種服務,包括諮詢、基礎架構設計、軟體平台、伺服器安裝與驗證以及售後支援。
    此圖片強調 ASUS 全方位 AI 伺服器解決方案運用在資料中心的場景。前景展示各種服務,包括諮詢、基礎架構設計、軟體平台、伺服器安裝與驗證以及售後支援。
  • AI 伺服器:為什麼選擇 ASUS?

    ASUS 的卓越之處在於整體性的方案和完美協調的尖端硬體與軟體技術,協助客戶加速研究與創新。ASUS 結合卓越的技術與務實的解決方案以開發先進功能,重新定義 AI 驅動產業和日常經驗的更多可能性。

    • 產品配置
    • 設計實力
    • 軟體生態系統
    • 完整的售後服務
    • ASUS
    • ASUS 設計完整的 AI 伺服器解決方案,全面涵蓋軟體及硬體,包括 Intel®、NVIDIA® 和 AMD® 解決方案,以及 x86 或 Arm® 架構。
    • ASUS 擁有的資源能立即回應並滿足幾乎所有要求,包含高階的元件、強大的生態系統合作夥伴、功能豐富的設計,以及卓越的內部專業知識。
    • ASUS 投入廣闊又繁複的 AI 領域,運用內部的軟體專業知識,並與軟體及雲端供應商合作提供完整的解決方案。
    • ASUS 將滿足客戶視為優先要務,運用自訂支援和軟體服務,包括 ASUS Control Center 的遠端管理,以及直觀易用的雲端服務使用者入口網站,提供諮詢與服務。
    • 競爭對手
    • 僅限於伺服器硬體。
    • 提供的自訂解決方案支援有限,特別是軟體方面。
    • 缺乏自營的軟體開發資源。
    • 僅提供產品本身的售後服務
  • 完整的 ASUS AI 系列解決方案
    包括裸機伺服器到整合式軟體導向方案
    此圖片顯示 AI 伺服器全系列產品藉由單一伺服器以及完整機架選項,支援不同級別的 AI 開發,包括邊緣 AI、生成式 AI、AI 超級運算
    此圖片顯示 AI 伺服器全系列產品藉由單一伺服器以及完整機架選項,支援不同級別的 AI 開發,包括邊緣 AI、生成式 AI、AI 超級運算
    此圖片顯示 AI 伺服器全系列產品藉由單一伺服器以及完整機架選項,支援不同級別的 AI 開發,包括邊緣 AI、生成式 AI、AI 超級運算
  • 選擇適合您需求和預算的最佳 AI 伺服器

    您認為 AI 是面對目前挑戰可能的解決方案嗎?想要運用 AI 開發企業 AI,卻擔心成本以及維護問題嗎?ASUS 提供全方位 AI 基礎架構解決方案,滿足多種工作負載和您所有特定需求。這些針對特定用途的先進 AI 伺服器和軟體解決方案適合處理複雜的任務,例如深度學習、機器學習、預測性 AI、生成式 AI (Gen AI)、大型語言模型 (LLM)、AI 訓練和推理,以及 AI 超級運算。選擇 ASUS 有效處理大型資料集並執行複雜運算。

    • 邊緣 AI

      隨著製造業進入工業 4.0 時代,精密的控制系統需要結合邊緣 AI 以全面提升製程。ASUS 邊緣 AI 伺服器提供裝置即時處理,可改善效率、減少延遲並且強化 IoT 應用的安全性。

      EG500-E11-RS4-R

      更快的儲存、圖形和網路功能

      • 採用第 5 代 Intel® Xeon® 可擴充處理器,發揮高出 21% 的每瓦通用效能,大幅提升 AI 推理和訓練效率
      • 採淺深度機殼與背面連接埠設計,適用於空間有限的邊緣環境
      • 可透過適用於 GPU 的 3 張 FHHL 卡、背面 2 個短 PSU 的內部 SATA**、正面 2 個外部 SATA/NVMe 以及選配的 2 個 E1.S SSD 進行擴充
      • 適用於資料中心或伺服器機房環境的備援 AC PSU

      ** 2 個內部 SATA 托架僅適用於 650W/短 PSU 型號

      AI 伺服器 ASUS EG500-E11-RS4-R 圖片

      EG520-E11-RS6-R

      更高的效率、最佳化 GPU 和網路功能

      • 採用第 5 代 Intel® Xeon® 可擴充處理器,發揮高出 21% 的每瓦通用效能,大幅提升 AI 推理和訓練效率
      • 採淺深度機殼與背面連接埠設計,適用於空間有限的邊緣環境
      • 可透過適用於 GPU 的 1 張 FHHL 卡和 2 張 FHFL 卡、2 個 SATA/NVMe (正面) 及 4 個 SATA (背面) 進行擴充。
      • 可在 0–55°C** 環境下提供可靠的運作
      • 適用於資料中心或伺服器機房的備援 AC PSU

      ** 無 GPU 的 SKU 適用於 0–55°C 環境,配備 GPU 的 SKU 適用於 0–35°C 環境。

      AI 伺服器 EG520-E11-RS6-R 圖片
    • AI 推理

      受過嚴密訓練的機器學習模型所面臨的終極挑戰是詮釋全新未見的資料,這項任務涉及大型資料管理和如何克服硬體限制。ASUS AI 伺服器具有強大的資料傳輸功能,藉由訓練後的模型產出準確預測,有效處理即時資料。

      RS720-E11-RS24U

      擴充彈性與擴充能力涵蓋所有應用範圍。

      • 採用第 5 代 Intel® Xeon® 可擴充處理器,發揮高出 21% 的每瓦通用效能,大幅提升 AI 推理和訓練效率
      • 擴充彈性與擴充能力涵蓋所有應用範圍
      • 最高支援 24 個全快閃 NVMe 硬碟,以及 4 個 PCIe 5.0 插槽,可因應更高的頻寬和系統升級需求
      • 相容於 1 張 PCIe LAN 卡或 1 個 OCP 3.0 模組,適用超大型資料中心連線
      AI 伺服器 RS720-E11-RS24U 圖片

      RS720A-E12-RS24U

      高效能、高效率以及多工作業管理

      • 配備 AMD® EPYC 9004 處理器,支援 128 個 Zen 4c 核心、12 通道、高達 4800 MHz DDR5,每插槽最大 TDP 高達 400 瓦
      • 最高支援 24 個全快閃 NVMe 硬碟,以及 9 個 PCIe 5.0 插槽,可因應更高的頻寬和系統升級需求
      • 可選購 2 個 10 Gbps 或 4 個 1 Gbps 內建 LAN 模組,以及後面板的 PCIe 5.0 插槽 OCP 3.0 模組,以實現更快的連線速度
      • 採用擴大體積型氣冷 (Enhanced Volume Air Cooling, EVAC) 散熱器,適用於具有較高 TDP 的處理器
      • 最高支援 3 個雙插槽 GPU,包括 NVIDIA A100 與 A40、AMD Instinct 和 Xilinx
      AI 伺服器 RS720A-E12-RS24U 圖片
    • AI 微調

      許多工程師與開發人員透過微調大型語言模型 (LLM),努力增加效能與自訂功能,然而他們經常遭遇部署失敗等種種挑戰。為克服這些問題,極其需要強大的 AI 伺服器解決方案,以確保無縫高效率的模型部署和運作。

      ESC NM1-E1

      2U 高效能伺服器採用 NVIDIA Grace-Hopper Superchip 搭配 NVIDIA NVLink-C2C 技術

      • 72 核心 NVIDIA® Grace GH200 Grace Hopper Superchip CPU 搭配 NVIDIA NVLink-C2C 技術可達 900 GB/s 頻寬
      • 加快各種應用上市的時間
      • 最佳化機構可有效散發多餘的熱量
      • 包括 NVIDIA AI Enterprise 及其廣泛的架構和工具
      • 簡化維護作業以發揮最高效率,並大幅縮短停機時間
      • 支援 AI 驅動資料中心、HPC、資料分析及 Omniverse™ 的各種應用。
      AI 伺服器 ESC NM1-E1 圖片

      ESC NM2-E1

      適用於生成式 AI 和 HPC 的 2U NVIDIA MGX GB200 NVL2 伺服器

      • 模組化 Arm® 架構 MGX 伺服器,適合企業級客戶
      • 由 NVIDIA 定義的模組化架構,縮短開發時間並加快產品推出速度
      • 雙 NVIDIA® Grace Blackwell GB200 NVL2 超級晶片 (雙 CPU 與雙 GPU)
      • 可透過 NVLINK 和 C2C 節點連接 CPU 和 GPU,改善 AI 運算效能
      AI 伺服器 ESC NM2-E1 圖片
    • AI 訓練

      無論您是否進行 AI 研究、資料分析或 AI 應用部署,ASUS AI 伺服器的出色效能和擴充能力受到肯定,能處理複雜的神經網路訓練並大幅加速訓練流程 – 完全釋放 AI 應用的可能性。

      ESC8000-E11

      發揮極致效能的生成式 AI 與 LLM 工作負載

      • 採用第 5 代 Intel® Xeon® 可擴充處理器,發揮高出 21% 的每瓦通用效能,大幅提升 AI 推理和訓練效率
      • 最高支援 8 個雙插槽主動或被動式 GPU、NVIDIA® NVLink 橋接器和 NVIDIA Bluefield DPU 以提升效能
      • 獨立的 CPU 和 GPU 氣流通道可實現最佳散熱效能,並支援多達四個 3000W Titanium 備援電源,確保運作不間斷
      • 前面板共有 8 個托架,結合三模 NVMe/SATA/SAS 硬碟和 11 個 PCIe 5.0 插槽,可因應更高的頻寬和系統升級需求
      • 後面板可選購 PCIe 5.0 插槽 OCP 3.0 模組,以實現更快的連線速度
      AI 伺服器 ESC8000-E11 圖片

      ESC8000A-E12

      發揮極致效能的生成式 AI 與 LLM 工作負載

      • 配備 AMD® EPYC™ 9004 處理器,支援 128 個 Zen 4c 核心、12 通道、高達 4800 MHz DDR5,每插槽最大 TDP 高達 400 瓦
      • 最高支援 8 個雙插槽主動或被動式 GPU、NVIDIA® NVLink 橋接器和 NVIDIA Bluefield DPU 以提升效能
      • 獨立的 CPU 和 GPU 氣流通道可實現最佳散熱效能,並支援多達四個 3000W Titanium 備援電源,確保運作不間斷
      • 前面板共有 8 個托架,結合三模 NVMe/SATA/SAS 硬碟和 11 個 PCIe 5.0 插槽,可因應更高的頻寬和系統升級需求
      • 後面板可選購 PCIe 5.0 插槽 OCP 3.0 模組,以實現更快的連線速度
      AI 伺服器 ESC8000A-E12 圖片
    • 生成式 AI

      ASUS 8 GPU AI 伺服器在密集 AI 模型訓練、大型資料集管理以及複雜運算方面表現出色。這些伺服器專為 AI、機器學習和高效能運算 (HPC) 而設計,確保頂尖的效能和可靠性。

      ESC I8-E11

      專屬深度學習訓練和推理

      • 搭載最新第 5代 Intel® Xeon® 可擴充處理器
      • 可容納 8 張 Intel® Gaudi® 3 AI OCP Accelerator Module (OAM) 夾層卡
      • 每張 Gaudi®3 均整合業界標準 RoCE 24 x 200GbE RDMA NIC
      • 模組化設計減少線材使用,縮短組裝時間並實現最佳散熱效能
      • 以 3000 W 80 PLUS® 備援 PSU 提供高能源效率
      AI 伺服器 ESC I8-E11 圖片

      ESC A8A-E13

      以卓越效能強化 AI 和 HPC

      • 7U AMD® 8 GPU 伺服器支援新一代 AMD 雙平台,專為生成式 AI 和 HPC 設計
      • 領先業界的 192 GB HBM 容量和 5.2 TB/s 頻寬適用於大型 AI 模型和 HPC 工作負載。
      • GPU 對 GPU 直接互連提供 896 GB/s 頻寬,實現高效率擴充
      • 具備獨特的 1 GPU 對 1 NIC 拓撲結構,並支援高達 8 個 NIC,為密集運算工作負載提供最高處理量
      • 模組化設計減少線材使用,縮短組裝時間並實現最佳散熱效能
      AI 伺服器 ESC A8A-E13 圖片

      ESC N8-E11 搭載 NVIDIA HGX H200

      • AI 高工作負載的最佳選擇,採用 NVIDIA® HGX™ 架構配備第 5 代 Intel® Xeon® 可擴充處理器。
      • 透過 NVLink 進行 GPU 對 GPU 直接互連以提供 900 GB/s 頻寬,實現高效率擴充
      • 具備獨特的 1 GPU 對 1 NIC 拓撲結構,並支援高達 8 個 NIC,為密集運算工作負載提供最高處理量
      • 模組化設計減少線材使用,縮短組裝時間並實現最佳散熱效能
      • 先進的 NVIDIA® 技術徹底運用 NVIDIA® GPU、BlueField-3、NVLink、NVSwitch 和網路技術
      搭載 NVIDIA HGX H200 的 AI 伺服器 ESC N8-E11 圖片
    • AI 超級運算

      AI 超級電腦由精密調校的硬體打造而成,包含無數的處理器、專門的網路設定和龐大的儲存裝置。ASUS 提供統包式解決方案,以專業全方位處理超級電腦的建置,從資料中心設置、機櫃安裝到徹底測試和上線面面俱到,並以嚴苛的測試保證頂尖的效能。

      ASUS ESC AI POD
      NVIDIA GB200 NVL72

      超越想像的 AI。完全釋放。

      • ASUS 首項 Arm® 架構機架規模產品,採用最強大的 NVIDIA® GB200 超級晶片和第 5 代 NVLink 技術。
      • 在單一機架內連接 36 個 Grace CPU 和 72 個 Blackwell GPU,提供速度提升 30 倍的即時 LLM 推理。
      • 支援生態系統縱向擴展
      AI 伺服器 ASUS ESC AI POD、NVIDIA GB200 NVL72 圖片
  • ASUS 8 週加速 AI 軟體解決方案

    投資了 AI 伺服器卻不知道如何透過使用者友善的 AI 軟體來簡化管理、最佳化效能嗎?ASUS 和 TWSC 整合先進的 AI 軟體工具和 AI Foundry 服務,促進 AI 應用的開發、部署與管理。僅需短短 8 週*,ASUS 團隊便能完成標準的資料中心軟體解決方案,包括叢集部署、計費系統、生成式 AI 工具,以及最新的 OS 驗證,安全性更新、服務修補程式和更多功能。

    ASUS 提供關鍵的驗證及驗收服務,包括全方位的軟體堆疊,確保解決方案在實際環境中能完美運作。此階段會驗證解決方案合乎所有特定要求,並確保在每個客戶的特定 IT 設置下進行無縫溝通。此程序由嚴格檢查電源、網路、GPU 卡、電壓和溫度開始,以確保順利啟動和正常功能。交貨前透過詳盡的測試程序識別並解決問題,確保資料中心在全負載狀態之下能可靠運作。

    ASUS AI 基礎架構解決方案遵循嚴謹工序提供擴充能力,無縫適應您日漸成長的 AI 需求,確保您維持靈活度和因應未來需求的能力。

    一張協助瞭解 ASUS 8weeks AI 軟體服務的線圖
    一張協助瞭解 ASUS 8weeks AI 軟體服務的線圖
    一張協助瞭解 ASUS 8weeks AI 軟體服務的線圖

    *請注意:交付時間可能因客戶自訂要求和專案範圍不同而改變。

    為您量身打造的 AI 伺服器

    選擇 ASUS AI 伺服器以大幅節省時間,相較於手動設置可降低高達 50% 的部署時間 – 並且能實現無縫整合以及效能改善。ASUS 團隊藉由專業知識預防錯誤配置,大幅避免錯誤與降低停機時間,確保您的伺服器運作流暢又可靠。ASUS 透過直觀易用的介面和強大的自動化功能簡化伺服器管理,使您能夠輕鬆處理複雜任務。

    透過 ASUS 完整軟體產品邁向卓越

    ASUS 遙遙領先其他競爭對手,提供先進的運算和 AI 軟體服務,包括高效能運算服務,GPU 虛擬化管理、整合用於管理模型的外部系統、私有雲服務部署、生成式 AI 訓練,以及資料中心整合式軟硬體解決方案。

    • 主要服務*
    • 雲端服務供應商
    • 資源集區管理技術
      GPU 主機和 VM
      GPU 容器
      無伺服器 GPU
      不同集區的資源重新定位
    • 運作平台
      租戶、容器、排程與儲存裝置管理
      深度學習和生成式 AI 管理模型
      用量型計費管理
      使用情境穩定性監控
    • 工作排程和協調
      Kubernets/Docker
      HPC (Slurm)
    • 整合式開發工具
      TensorFlow、PyTorch、Keras、Nvidia 官方工具等。
    • 擴充能力和資源管理
      支援多雲運算
      支援多核心 (ARM、ASIC)
    • 競爭對手
    • 不適用
    • 不適用
    • 不適用
    • 不適用
    • 不適用
    • 不適用
    • 不適用
    • 不適用

    *可提供的服務可能因不同國家/地區而異。

  • ASUS AI 基礎架構解決方案協助您的企業全方位轉型

    人工智慧的發展正迅速重新塑造商業應用和消費者的生活方式。ASUS 的專業之處在於完美協調硬體與軟體技術,協助客戶加速研究與創新工作

  • 為您解惑!
    • 什麼是 AI 伺服器?
      想像一下,有個電腦系統專為提升人工智慧發展而設計,這就是 AI 伺服器!但這些系統並非一般的辦公室伺服器,驚奇的成效背後有著堅實技術,進行無比複雜的計算,為 AI 的進步提供助力。
      什麼是 AI 伺服器?| ASUS 媒體室
    • 為何 AI 伺服器不可或缺?
      生成式 AI 和 ChatGPT 等工具的崛起大幅增加 AI 的應用,促使企業重新思考 AI 伺服器的必要性。然而,專為管理 AI 和機器學習模型的密集運算需求而打造的 AI 伺服器依然不可或缺。ASUS 遠遠領先競爭對手,提供的不只有尖端的 AI 伺服器,還有不可或缺的自訂軟體解決方案,讓 AI 開發程序順暢無阻。
    • AI 伺服器 vs. 一般伺服器
      • 目的
      • 處理器
      • 記憶體
      • 資料傳輸
      • 成本與耗電量
      • 維護與擴充要求
      • AI 伺服器
      • 專為處理機器學習和深度學習工作負載中的複雜 AI 演算而設計。
      • 搭載適合 AI 運算任務的最佳高效能 GPU 或 TPU。
      • 使用大量的高速記憶體以快速處理大型資料集。
      • 高速 I/O 功能支援快速讀/寫資料與串流,以及高速的網路連接。
      • 高效能的運算設計導致成本提高。提高硬體效能導致功耗提高。
      • 可能需要更多針對擴充能力和軟體最佳化的專門維護以維持尖峰效能
      • 一般伺服器
      • 為一般資料處理和儲存任務所設計,例如網頁代管、應用程式伺服器和檔案儲存。
      • 標準 CPU 適合一般運算任務。
      • 記憶體組態依照特定需求差異甚大。
      • 標準的 I/O 功能適合一般網路連線與儲存需求。
      • 功耗與成本相對低廉,瞄準一般的商業市場和應用。
      • 維護要求通常較低,市場上有許多可用的支援和服務選項。
    • 如何確保在 8 週內交付完整的軟體服務?
      ASUS 與子公司台灣智慧雲端服務股份有限公司 (TWSC) 合作,專為客戶設計自訂軟體解決方案。根據過去專案經驗,8 週的時間可以實現專案管理 – 不過交期將會依照特定要求與專案範圍而改變。

      TWSC 擁有豐富經驗,曾協助 NVIDIA Partner Network 雲端合作夥伴 (NCP) 部署及共同維護 AIHPC 大型基礎架構,也曾執行國家高速網路與計算中心 (NCHC) 的專案,包含 TAIWANIA-2 (#10/Green 500,2018 年 11 月) 以及 FORERUNNER 1 (#92/Green 500,2023 年 11 月) 超級電腦系列。此外,TWSC 的 AFS POD 解決方案協助快速部署 AI 超級運算,也實現 AI 2.0 應用的彈性模型最佳化,使用者因此能夠隨心自訂符合所需的特定 AI 需求。

      TWSC AFS POD 解決方案提供企業級 AI 基礎架構解決方案,包含迅速的產品發布和全方位端對端服務,保證高可用性以及網路安全性標準。TWSC 的解決方案成功案例遍布學術、研究和醫療機構,全方位的成本管理功能可最佳化功耗並簡化營運支出 (OpEx),使 TWSC 技術成為機構在尋求可靠且永續之生成式 AI 平台時的最佳選擇。

      關於 TWSC
      台灣智慧雲端服務股份有限公司 (TWSC) 為 ASUS 的子公司,專注發展 AI 和雲端運算解決方案,提供搭載 AI 技術的高效能運算 (HPC) 功能,以及全方位的雲端平台工具與解決方案 – 運用 AI 超級電腦快速執行大型應用。TWSC 也運用世界級的專業知識,提供專業的企業級生成式 AI 平台和服務,整合可信的開源大型語言模型 (LLM) 與強化繁體中文支援的獨家福爾摩沙大模型 (Formosa Foundation Model, FFM)。TWSC 技術透過簡單、不需程式碼的運作,支援本地企業應用並持續促進 AI 的普及化與商業化。我們的產品範圍涵括雲端到地表,有效協助企業降低成本、時間、人力資源和網路安全隱憂,提供最佳與最全面的解決方案。

      • TWSC 榮獲 2023 年亞洲金選獎「金選雲端供應商」企業獎榮耀
      • 進一步瞭解:https://tws.twcc.ai/en/
    • 準備好建置 AI 工作負載伺服器了嗎?
      聯絡我們以自訂您的解決方案。我們很樂意為您提供報價、範例、設計協助或解答其他疑問!https://servers.asus.com/tw/support/contact