ASUSがNVIDIA A100 PCIe GPUを搭載したESC4000A-E10サーバーを発表
2020/07/17
2U GPUサーバーがAI、データサイエンス、サイエンスコンピューティングアプリケーション向けにGPUとコンピューティングパフォーマンスを高速化
キーポイント
・ASUSは、NVIDIA A100 Tensor Core GPU発表から1ヶ月後にNVIDIA A100搭載サーバーを発表
・ASUS ESC4000A-E10は、NVIDIA A100搭載サーバーで、PCIe Gen 4、OCP 3.0、および最大4つのデュアルスロットまたは8つのシングルスロットGPUをサポート
・ASUS ESC4000A-E10は、データセンターおよび企業向けのAI、高性能コンピューティング(HPC)、仮想化、仮想デスクトップインフラストラクチャ(VDI)アプリケーションを対象
サーバーシステム、サーバーマザーボード、ワークステーションの大手IT企業であるASUSは本日、新しいGPUサーバー「ESC4000A-E10」を発表しました。NVIDIA A100PCIe®GPUを搭載し、PCIe 4.0拡張とOCP 3.0ネットワークを備えています。より高速のコンピューティングとGPUパフォーマンスを備えたESC4000A-E10は、データセンターを高速化、最適化して利用性を高め、総所有コストを削減するように設計されています。ASUSは、NVIDIAとの強力なパートナーシップを築き続け、かつてない加速と柔軟性を提供し、AI、データ分析、HPCアプリケーションに対応する世界で最強のパフォーマンスを持つ弾力的なデータセンターを実現します。
ASUS ESC4000A-E10 GPUサーバー
ASUS ESC4000A-E10は、AMD EPYC™7002シリーズシングルソケットプロセッサーを搭載した2U GPUサーバーで、従来の7001世代と比較して最大2倍のパフォーマンスと4倍の浮動小数点機能を提供します。ESC4000A-E10は、強力なCPUコア、複数のGPUサポート、高速な伝送速度を必要とするデータセンターや企業環境におけるAI、HPC、VDIアプリケーション向けに設計されています。NVIDIA Ampereアーキテクチャ上に構築された最新のNVIDIA A100 PCIe GPU、Tesla T4、およびQuadro®GPUなど、最大4つの高性能ダブルスロットまたは8つのシングルスロットGPUをサポートするGPU最適化パフォーマンスを提供します。このパフォーマンスは、GPUリソースを共有プールに統合することで仮想化を支援し、ユーザーがより効率的な方法でリソースを利用できるようにします。
ASUS ESC4000A-E10は、コンピューティング、グラフィックス、ストレージ、ネットワーク拡張用に最大11個のPCIe 4.0スロットも備えています。PCIe 4.0は、最大16 GT/s(PCIe 3.0の2倍の帯域幅)の転送速度を提供し、電力消費を低減し、レーンの拡張性と旧バージョンとの互換性を向上させます。ネットワークでは、ESC4000A-E10はOCP 3.0ネットワークインターフェイスカードをサポートしており、最大200ギガビットイーサネットをサポートし、高帯域幅アプリケーションの要求に対応します。柔軟なケース設計により、ESC4000A-E10は最大8台のホットスワップ可能な3.5インチまたは2.5インチのハードディスクドライブに対応し、そのうち4台はNVMe SSDとして構成できます。
NVIDIA A100 PCIe GPU
NVIDIA A100 TensorコアGPUは、かつてない加速と柔軟性を提供し、AI、データ分析、HPCアプリケーションに対応する世界で最強のパフォーマンスを持つ弾力的なデータセンターを実現します。NVIDIAデータセンタープラットフォームのエンジンとなるA100 GPUは、V100 GPUの最大20倍のパフォーマンスを提供し、数千のGPUまで効率的に拡張したり、新しいマルチインスタンスGPU(MIG)機能で7つの独立したGPUインスタンスに分割したりすることができ、すべてのサイズのワークロードを加速します。
NVIDIA A100 GPUは、広範な計算精度をサポートする第3世代のTensorコア技術を備えており、データ分析、AIトレーニング、AI推論、およびHPC用の統合ワークロードアクセラレーターを提供します。1つのプラットフォームでスケールアップとスケールアウトの両方のワークロードを加速させることで、変化するアプリケーションワークロードの要求に動的に対応できる弾力的なデータセンターを実現します。これにより、同時に処理能力が向上し、データセンターのコストが削減されます。
NVIDIAソフトウェアスタックと組み合わせることで、A100 GPUはすべての主要なディープラーニングとデータ分析フレームワーク、さらに700以上のHPCアプリケーションを高速化します。AIやHPC用のGPU最適化ソフトウェアコンテナーのハブであるNVIDIA NGCは、アプリケーションの導入を簡素化し、研究者や開発者がソリューションの構築に集中できるようにします。ASUSはまた、A100搭載のNGC-Readyシステムを提供します。これは、ディープラーニングと機械学習のワークロードを実行するように構築され、AIスタックの機能とパフォーマンスは実証済みです。
ハードウェアとソフトウェアの統合ソリューションを継続的に強化
NVIDIAパートナーネットワーク(NPN)の主要なOEMパートナーの1つであるASUSは、NVIDIAと緊密に連携し、お客様がNVIDIA GPUを使ってハードウェアシステムを設計、開発、製造し、システムを最適化できるよう支援します。多くのASUSサーバーは、ベアメタルサーバーと仮想サーバー上のNGCコンテナーのパフォーマンスと機能について検証されたNVIDIA NGC-Readyシステムです。ASUSは、今後もNVIDIAを使用してより多くのソリューションを開発し、ハードウェアとソフトウェアの選択に費やす時間を短縮して、お客様が要件を簡単に満たせるようにします。
最高のパフォーマンスと電力効率を提供するASUSサーバーは、データセンターソリューションとして最適の選択肢です。ASUS 2Pおよび1Pサーバーは、SPEC.orgのSPEC CPU 2017ベンチマーク
・ASUSは、NVIDIA A100 Tensor Core GPU発表から1ヶ月後にNVIDIA A100搭載サーバーを発表
・ASUS ESC4000A-E10は、NVIDIA A100搭載サーバーで、PCIe Gen 4、OCP 3.0、および最大4つのデュアルスロットまたは8つのシングルスロットGPUをサポート
・ASUS ESC4000A-E10は、データセンターおよび企業向けのAI、高性能コンピューティング(HPC)、仮想化、仮想デスクトップインフラストラクチャ(VDI)アプリケーションを対象
サーバーシステム、サーバーマザーボード、ワークステーションの大手IT企業であるASUSは本日、新しいGPUサーバー「ESC4000A-E10」を発表しました。NVIDIA A100PCIe®GPUを搭載し、PCIe 4.0拡張とOCP 3.0ネットワークを備えています。より高速のコンピューティングとGPUパフォーマンスを備えたESC4000A-E10は、データセンターを高速化、最適化して利用性を高め、総所有コストを削減するように設計されています。ASUSは、NVIDIAとの強力なパートナーシップを築き続け、かつてない加速と柔軟性を提供し、AI、データ分析、HPCアプリケーションに対応する世界で最強のパフォーマンスを持つ弾力的なデータセンターを実現します。
ASUS ESC4000A-E10 GPUサーバー
ASUS ESC4000A-E10は、AMD EPYC™7002シリーズシングルソケットプロセッサーを搭載した2U GPUサーバーで、従来の7001世代と比較して最大2倍のパフォーマンスと4倍の浮動小数点機能を提供します。ESC4000A-E10は、強力なCPUコア、複数のGPUサポート、高速な伝送速度を必要とするデータセンターや企業環境におけるAI、HPC、VDIアプリケーション向けに設計されています。NVIDIA Ampereアーキテクチャ上に構築された最新のNVIDIA A100 PCIe GPU、Tesla T4、およびQuadro®GPUなど、最大4つの高性能ダブルスロットまたは8つのシングルスロットGPUをサポートするGPU最適化パフォーマンスを提供します。このパフォーマンスは、GPUリソースを共有プールに統合することで仮想化を支援し、ユーザーがより効率的な方法でリソースを利用できるようにします。
ASUS ESC4000A-E10は、コンピューティング、グラフィックス、ストレージ、ネットワーク拡張用に最大11個のPCIe 4.0スロットも備えています。PCIe 4.0は、最大16 GT/s(PCIe 3.0の2倍の帯域幅)の転送速度を提供し、電力消費を低減し、レーンの拡張性と旧バージョンとの互換性を向上させます。ネットワークでは、ESC4000A-E10はOCP 3.0ネットワークインターフェイスカードをサポートしており、最大200ギガビットイーサネットをサポートし、高帯域幅アプリケーションの要求に対応します。柔軟なケース設計により、ESC4000A-E10は最大8台のホットスワップ可能な3.5インチまたは2.5インチのハードディスクドライブに対応し、そのうち4台はNVMe SSDとして構成できます。
NVIDIA A100 PCIe GPU
NVIDIA A100 TensorコアGPUは、かつてない加速と柔軟性を提供し、AI、データ分析、HPCアプリケーションに対応する世界で最強のパフォーマンスを持つ弾力的なデータセンターを実現します。NVIDIAデータセンタープラットフォームのエンジンとなるA100 GPUは、V100 GPUの最大20倍のパフォーマンスを提供し、数千のGPUまで効率的に拡張したり、新しいマルチインスタンスGPU(MIG)機能で7つの独立したGPUインスタンスに分割したりすることができ、すべてのサイズのワークロードを加速します。
NVIDIA A100 GPUは、広範な計算精度をサポートする第3世代のTensorコア技術を備えており、データ分析、AIトレーニング、AI推論、およびHPC用の統合ワークロードアクセラレーターを提供します。1つのプラットフォームでスケールアップとスケールアウトの両方のワークロードを加速させることで、変化するアプリケーションワークロードの要求に動的に対応できる弾力的なデータセンターを実現します。これにより、同時に処理能力が向上し、データセンターのコストが削減されます。
NVIDIAソフトウェアスタックと組み合わせることで、A100 GPUはすべての主要なディープラーニングとデータ分析フレームワーク、さらに700以上のHPCアプリケーションを高速化します。AIやHPC用のGPU最適化ソフトウェアコンテナーのハブであるNVIDIA NGCは、アプリケーションの導入を簡素化し、研究者や開発者がソリューションの構築に集中できるようにします。ASUSはまた、A100搭載のNGC-Readyシステムを提供します。これは、ディープラーニングと機械学習のワークロードを実行するように構築され、AIスタックの機能とパフォーマンスは実証済みです。
ハードウェアとソフトウェアの統合ソリューションを継続的に強化
NVIDIAパートナーネットワーク(NPN)の主要なOEMパートナーの1つであるASUSは、NVIDIAと緊密に連携し、お客様がNVIDIA GPUを使ってハードウェアシステムを設計、開発、製造し、システムを最適化できるよう支援します。多くのASUSサーバーは、ベアメタルサーバーと仮想サーバー上のNGCコンテナーのパフォーマンスと機能について検証されたNVIDIA NGC-Readyシステムです。ASUSは、今後もNVIDIAを使用してより多くのソリューションを開発し、ハードウェアとソフトウェアの選択に費やす時間を短縮して、お客様が要件を簡単に満たせるようにします。
最高のパフォーマンスと電力効率を提供するASUSサーバーは、データセンターソリューションとして最適の選択肢です。ASUS 2Pおよび1Pサーバーは、SPEC.orgのSPEC CPU 2017ベンチマーク