The infrastructure solution text features a designed visual effect.

INFRASTRUCTURE SOLUTIONS

  • ASUSのAIインフラストラクチャソリューションで成長の可能性を引き出す

    人工知能(AI)の影響力は大きく、かつてないスピードで私たちの世界を再構築しています。競争を勝ち抜くためにはプロアクティブな管理が不可欠であり、ASUSのAIインフラソリューションは、この進化する状況の中で針路を見出すために極めて重要となります。ASUSは、AIサーバーから統合ラック、大規模コンピューティングのためのASUS AI POD、そして最も重要な先進ソフトウェアプラットフォームまで、包括的なAIソリューションを提供しています。あらゆるワークロードに対応できるようカスタマイズされており、AI競争で優位に立てるようサポートします。

    This graphic highlights ASUS's comprehensive AI server solution on a data center scenario. The foreground showcases services such as consulting, infrastructure architecture design, software platforms, server installation and validation, and after-sales support.
    This graphic highlights ASUS's comprehensive AI server solution on a data center scenario. The foreground showcases services such as consulting, infrastructure architecture design, software platforms, server installation and validation, and after-sales support.
    This graphic highlights ASUS's comprehensive AI server solution on a data center scenario. The foreground showcases services such as consulting, infrastructure architecture design, software platforms, server installation and validation, and after-sales support.
  • AIサーバー:ASUSを選ぶ理由

    ASUSは、最先端のハードウェアとソフトウェアを調和させた総合的なアプローチに優れており 、お客様の研究とイノベーションを加速させることができます。卓越した技術と実用的なソリューションの架け橋となることで、ASUSはAI主導の産業と日常体験の可能性を再定義し、進歩をけん引しています。

    • 提供製品
    • 設計能力
    • ソフトウェアエコシステム
    • 完璧なアフターサービス
    • ASUS
    • ASUSは、インテル®、NVIDIA®、AMD®ソリューション、x86またはArm®アーキテクチャをカバーするソフトウェアからハードウェアまでの完全なAIサーバーソリューションを設計しています。
    • ASUSは、トップクラスのコンポーネント、強力なエコシステムパートナーシップ、豊富な機能設計、優れた社内専門知識などのリソースを備え、ほぼすべての要求に迅速に対応することができます。
    • ASUSは広範かつ複雑なAI分野に取り組んでいます。社内のソフトウェア専門知識を活用し、ソフトウェアやクラウドのプロバイダとパートナーシップを結び、総合的なソリューションを提供しています。
    • ASUSは、お客様に満足いただけることを最優先に位置付け、カスタマイズされたサポート、ASUS Control Centerを介したリモート管理などのソフトウェアサービス、直感的なクラウドサービスのユーザーポータルの確立など、コンサルティングやサービスを提供しています。
    • 競合他社
    • サーバーハードウェアのみに限定。
    • 特注ソリューション、特にソフトウェアに関するサポートが限定的。
    • 自社所有のソフトウェア開発リソースがない。
    • 製品販売サービスのみ提供
  • ASUS AIソリューションのフルラインナップ
    ベアメタルからソフトウェア中心の統合アプローチまで
    This is a graphic showcase ai server full lineup to support different level of AI development from edge ai, generative ai, ai supercomputing with single server and full rack options
    This is a graphic showcase ai server full lineup to support different level of AI development from edge ai, generative ai, ai supercomputing with single server and full rack options
    This is a graphic showcase ai server full lineup to support different level of AI development from edge ai, generative ai, ai supercomputing with single server and full rack options
  • お客様のニーズとご予算に最適なAIサーバーを提案します

    現在抱えている課題を解決する潜在的なソリューションとしてAIをお考えですか?AIを活用したエンタープライズAIの開発を検討中でも、コストやメンテナンスが心配ですか?ASUSは、多様なワークロードとあらゆるニーズに対応する包括的なAIインフラストラクチャソリューションを提供します。これらの先進的なAIサーバーとソフトウェアソリューションは、ディープラーニング、機械学習、予測AI、生成AI(Gen AI)、大規模言語モデル(LLM)、AIトレーニングおよび推論、AIスーパーコンピューティングなどの複雑なタスクの処理を目的として作られました。膨大なデータセットを効率的に処理し、複雑な計算を実行するためにASUSをお選びください。

    • エッジAI

      製造業がインダストリー4.0時代に突入した今、エッジAIを組み合わせて処理を全体的に強化する洗練された制御システムが求められています。ASUSのエッジAIサーバーソリューションは、デバイスレベルでのリアルタイム処理を実現し、IoTアプリケーションの効率向上、遅延の短縮、セキュリティの強化を実現します。

      EG500-E11-RS4-R

      より高速なストレージ、グラフィックス、およびネットワーク機能

      • 第5世代インテル®Xeon®スケーラブル・プロセッサー を搭載し、1ワットあたりの一般用途のパフォーマンスが最大21%向上、AIの推論とトレーニングを大幅に改善
      • 奥行きの短いケースとリアアクセス設計により、スペースが限られたエッジ環境にも対応
      • 3枚のGPU用FHHLカード、2つの背面ショートPSU付き内蔵SATA**、2つの前面外付けSATA/NVMe、オプションで2つのE1.S SSDに対応する拡張性
      • データセンターまたはサーバールーム環境向けの冗長AC電源ユニット

      ** 650W/ショートPSUモード時のみ内部SATAベイ×2

      The ai server image of ASUS EG500-E11-RS4-R

      EG520-E11-RS6-R

      効率を高め、GPUとネットワーク機能を最適化

      • 第5世代インテル®Xeon®スケーラブル・プロセッサーを搭載し、1ワットあたりの一般用途のパフォーマンスが最大21%向上、AIの推論とトレーニングを大幅に改善
      • 奥行きの短いケースとリアアクセス設計により、スペースが限られたエッジ環境にも対応
      • FHHLカード1枚、GPU用FHFLカード2枚、SATA/NVMe(フロント)2枚、SATA(リア)4枚に対応する拡張性
      • 0~55℃の環境**で信頼性の高い動作を実現する設計
      • データセンターやサーバールーム用冗長AC PSU

      **GPU非搭載SKUは0〜55°C環境、GPU搭載SKUは0〜35°C環境に対応する設計

      The ai server image of EG520-E11-RS6-R
    • AI推論

      綿密に訓練された機械学習モデルは、大規模なデータの管理とハードウェアの制限を克服するという、新しい未知のデータを解釈する究極の課題に直面しています。ASUSのAIサーバーは、その強力なデータ転送機能により、学習済みモデルを介してライブデータを効率的に実行し、正確な予測を行います。

      RS720-E12

      GPUアクセラレータ最適化による最大効率

      • RS720-E12シリーズは、デュアルIntel Xeon 6プロセッサーを搭載し、最大6400 MHzのDDR5 RDIMMおよび最大8000 MHzのMRDIMMをサポートし、多様なワークロードに対して優れた効率を提供します。
      • 最大3つのデュアルスロットGPUをサポートすることで、AIワークロードや高性能コンピューティング(HPC)タスクに最適です。
      • 最大10個のPCIe® 5.0スロットを装備し、広範なスケーラビリティと将来への対応力を提供します。
      The ai server image of RS720Q-E12

      RS720A-E13

      マルチタスキングのパフォーマンス、効率、および管理性

      • AMD EPYC 9005プロセッサーを搭載し、ソケットあたり最大500ワットのTDPをサポート
      • 最大24枚のDDR5 RDIMM(1DPC)をサポートし、6000 MHzまで対応。幅広いワークロードに対して優れたパフォーマンスと効率を提供
      • 最大24本のオールフラッシュPCIe 5.0 NVMeドライブおよび10本の拡張PCIe 5.0スロット(2つのOCP 3.0および8つのPCIe)をサポートし、高帯域幅とシステムアップグレードを実現
      • NVIDIA H100 NVLなど、最大3つのデュアルスロットGPUサポートに最適化されており、要求の厳しいグラフィックおよび計算タスクを効率的に処理
      The ai server image of RS720A-E13
    • AIファインチューニング

      多くのエンジニアや開発者は、大規模言語モデル(LLM)を微調整することで、パフォーマンスとカスタマイズ性を高めようと努力しています。しかし、導入の失敗などの課題にしばしば直面します。このような問題を克服するためには、シームレスで効率的なモデルの導入と運用を保証する堅牢なAIサーバーソリューションが不可欠です。

      ESC NM1-E1

      NVIDIA NVLink-C2Cテクノロジを搭載したNVIDIA Grace-Hopper Superchipのパワーを活用した2U高性能サーバー

      • 72コアのNVIDIA®Grace GH200 Grace Hopper Superchip CPUとNVIDIA NVLink-C2Cテクノロジによる900GB/秒の帯域幅
      • 市場投入までの時間を短縮するアプリケーション Accelerates time-to-market applications
      • 最適化されたメカニズムが余分な熱を効率的に除去
      • 豊富なフレームワークとツールを備えたNVIDIA AI Enterpriseを搭載
      • 最大限の効率とダウンタイムの最小化のためのメンテナンスが容易
      • AI主導のデータセンター、高性能コンピューティング(HPC)、データ分析、Omniverse™の多様なアプリケーションに対応
      The ai server image of ESC NM1-E1

      ESC NM2-E1

      生成AIおよび高性能コンピューティング(HPC)向けに設計された2U NVIDIA MGX GB200 NVL2サーバー

      • 企業顧客向けのArm®ベースのモジュール式MGXサーバー
      • NVIDIAによって定義されたモジュラーアーキテクチャは、開発を短縮し、製品立ち上げまでの時間を短縮
      • デュアルNVIDIA® Grace Blackwell GB200 NVL2スーパーチップ(2つのCPUと2つのGPU)
      • CPUとGPUは、NVLINKとC2Cノードを介して接続することができ、AIコンピューティングのパフォーマンスを向上させます。
      The ai server image of ESC NM2-E1
    • AI学習

      ASUSのAIサーバーは、AI研究、データ分析、AIアプリケーションの導入のいずれにおいても、複雑なニューラルネットワークのトレーニングを処理する優れたパフォーマンスと拡張性が評価されています。学習プロセスを大幅に高速化し、AIアプリケーションの能力を完全に引き出します。

      ESC8000-E11

      生成AIとLLMワークロードを高速化

      • 第5世代インテル®Xeon®スケーラブル・プロセッサーを搭載し、1ワットあたりの一般用途のパフォーマンスが最大21%向上、AIの推論とトレーニングを大幅に改善
      • 最大8つのデュアルスロットアクティブまたはパッシブGPU、NVIDIA® NVLinkブリッジ、およびNVIDIA Bluefield DPUに対応し、パフォーマンスを強化
      • 熱最適化を実現する独立したCPUおよびGPUのエアフロートンネルと、中断のない動作を可能にする最大4つの3000W Titanium冗長電源に対応
      • フロントパネルにトライモードNVMe/SATA/SASドライブを組み合わせた合計8ベイと、より高い帯域幅とシステムアップグレードを可能にする11のPCIe 5.0スロット
      • オプションのOCP 3.0モジュールとPCIe 5.0スロットをリアパネルに搭載し、より高速な接続性を実現
      The ai server image of ESC8000-E11

      ESC8000A-E13P

      生成AIとLLMワークロードを加速

      • 192のZen 5cコアを持つAMD EPYC 9005プロセッサーを搭載し、12チャネル、最大6000 MHzのDDR5をサポートし、ソケットあたり最大500ワットのTDPに対応
      • NVIDIA MGXアーキテクチャに完全準拠し、大規模な迅速な展開が可能
      • 高密度の4Uサーバーで、最大8つのデュアルスロット高性能GPUをサポートし、各GPUは最大600ワットに対応
      • 高帯域幅のPCIe NICおよびDPUによるパフォーマンススケーリングを可能にする5つのPCI 5.0スロットを備えた最適化されたサーバー構成
      • 内蔵ファンを持つアクティブGPUおよびシステムファンに依存するパッシブGPUを含む柔軟なGPU構成をサポートし、様々なアプリケーションと設計メカニズムに対応
      The ai server image of ESC8000A-E13P
    • 生成AI

      8つのGPUを搭載したASUSのAIサーバーは、集中的なAIモデルのトレーニング、大規模データセットの管理、複雑な計算に優れています。これらのサーバーは、AI、機械学習、高性能コンピューティング(HPC)用に特別に設計されており、最高のパフォーマンスと信頼性を保証します。

      ESC I8-E11

      ディープラーニングのトレーニングと推論専用

      • 最新の第5世代インテル®Xeon®スケーラブル・プロセッサーを搭載
      • 8つのインテル® Gaudi®3 AI OCPアクセラレータモジュール(OAM)メザニンカードを搭載
      • すべてのGaudi®3に業界標準RoCEの24 x 200GbE RDMA NICを統合
      • ケーブル使用量を削減したモジュール設計により、組み立て時間を短縮し、熱最適化を向上
      • 冗長3000W 80PLUS®PSUによる高い電力効率
      The ai server image of ESC I8-E11

      ESC A8A-E12U

      優れたパフォーマンスでAIとHPCを強化

      • 生成AIとHPC向けに設計された、デュアルAMD EPYC 9005プロセッサーを搭載した7Uの8-GPUサーバー
      • 業界をリードする256GBのHBM容量
      • 各ソケットで最大400ワットに対応するAMD Instinct™ MI325Xアクセラレータをサポートし、GPU間の直接接続により、最大6TB/sの帯域幅を提供して大規模なAIモデルとHPCワークロードの効率的なスケーリングを実現
      • 計算集約型ワークロード時に最高のスループットを提供するために、最大8つのNICをサポートする専用の1GPU・1NIC トポロジー
      • ケーブル使用を減らしたモジュラー設計により、組立時間を短縮し、熱の最適化を向上
      The ai server image of ESC A8A-E12U

      ESC N8-E11/ESC N8-E11V

      重いAIワークロードに最適な選択

      • 第5世代Intel® Xeon® スケーラブルプロセッサーとNVIDIA® HGX™ H100/H200を搭載
      • NVLinkによるGPU間の直接接続が900GB/sの帯域幅を提供し、効率的なスケーリングを実現
      • 計算集約型ワークロード時に最高のスループットを提供するために、最大8つのNICをサポートする専用の1GPU・1NIC トポロジー
      • ケーブル使用を減らしたモジュラー設計により、組立時間を短縮し、熱の最適化を向上
      • 高度なNVIDIA®技術がNVIDIA® GPU、BlueField-3、NVLink、NVSwitch、ネットワーキングのフルパワーを引き出します
      The ai server image of ESC N8-E11/ESC N8-E11V
    • AIスーパーコンピューティング

      AIスーパーコンピュータは、無数のプロセッサー、特殊なネットワーク、膨大なストレージを備えた細かく調整されたハードウェアから構築されます。ASUSは、ターンキーソリューションを提供し、データセンターのセットアップやキャビネットの設置から、徹底的なテストやオンボーディングまで、スーパーコンピュータ構築全般を扱うエキスパートです。厳格なテストを実施しており、一流のパフォーマンスを保証します。

      ASUS AI POD
      NVIDIA GB200 NVL72

      想像を絶するAI。登場。

      • 最強のNVIDIA® GB200スーパーチップと第5世代NVLinkテクノロジを搭載した、ASUS初のArm®ベースのラックスケール製品です。
      • 1ラック内に36のGrace CPUと72のBlackwell GPUを接続し、最大30倍高速なリアルタイムLLM推論を実現します。
      • スケールアップエコシステム対応
      The ai server image of ASUS ESC AI POD, NVIDIA GB200 NVL72
  • ASUSの8週間高速化AIソフトウェアソリューション

    AIサーバーに投資したけれど、その管理を合理化し、ユーザーフレンドリーなAIソフトウェアでパフォーマンスを最適化する方法にお悩みですか?ASUSとTWSCは、AIアプリケーションの開発、導入、管理を容易にする先進的なAIソフトウェアツールとAIファウンドリサービスを統合しました。ASUSチームはわずか8週間で*、クラスタ導入、課金システム、生成AIツール、最新のOS検証、セキュリティアップデート、サービスパッチなどを含む標準的なデータセンターソフトウェアソリューションを完成させることができます。

    さらにASUSは、ソフトウェアスタック全体を含む重要な検証・検収サービスを提供し、サーバーが実環境で問題なく動作することを保証します。この段階では、指定されたすべての要件に準拠しているかどうかを検証し、クライアントごとのIT設定でシームレスに通信できることを保証します。このプロセスは、電源、ネットワーク、GPUカード、電圧、温度などの厳しいチェックから始まり、スムーズな起動と機能性を保証します。徹底的なテストにより、引き渡し前に問題を特定して解決し、データセンターが全負荷下でも 確実に動作することを保証します。

    ASUSのAIインフラソリューションによる細心のアプローチは、お客様のAIニーズの高まりにシームレスに対応できる拡張性を提供し、インフラストラクチャの柔軟性と将来性を保証します。

    This is a line graph that helps people understand the ASUS 8weeks ai software services
    This is a line graph that helps people understand the ASUS 8weeks ai software services
    This is a line graph that helps people understand the ASUS 8weeks ai software services

    *ソフトウェアソリューションの納期は、カスタマイズされた要件やプロジェクトの範囲によって異なる場合があります。

    お客様のためにカスタマイズされたAIサーバー

    ASUSのAIサーバーソリューションを選択すれば、手動セットアップと比較して導入時間を最大50%短縮し、シームレスな統合とパフォーマンスの向上を実現し、大幅な時間の節約を実現します。ASUSの専門チームによる専門知識により、コストを伴う設定ミスを防ぎ、エラーやダウンタイムを最小限に抑え、スムーズで信頼性の高いサーバー運用を実現します。直感的なインターフェイスと強力な自動化機能により、ASUSはサーバー管理を簡素化し、複雑なタスクも難なくこなせるようにします。

    ASUSが提供する充実したソフトウェアで卓越性を実現

    ASUSは、高性能コンピューティングサービス、GPU仮想化管理、モデル管理のための外部システムとの統合、プライベートクラウドサービスの導入、生成AIトレーニング、データセンター向けの統合ソフトウェアおよびハードウェアソリューションなど、他社を圧倒する高度なコンピューティングおよびAIソフトウェアサービスを提供しています。

    • 主なサービス
    • クラウドサービスプロバイダ
    • リソースプール管理技術
      GPUホストとVM
      GPUコンテナ
      GPUサーバーレス
      異なるプールのリソース再配置
    • オペレーションプラットフォーム
      テナント、コンテナ、スケジューリング、ストレージの管理
      ディープラーニングと生成AIモデルの管理
      利用ベースの課金管理
      ユーザーシナリオの安定性監視
    • ジョブスケジューリングとオーケストレーション
      Kubernets/Docker
      高性能コンピューティング(HPC)(Slurm)
    • 統合開発ツール
      TensorFlow、PyTorch、Keras、Nvidia Official Toolsなど。
    • リソース管理の拡張性
      マルチクラウドコンピューティング対応
      マルチコア対応(ARM、ASIC)
    • ASUS
    • https://tws.twcc.ai/en/

    • (特許技術US11513858B2)

    • (セキュアテナント)

    • (ASUS AIサーバー対応)
    • 競合他社
    • N/A
    • N/A
    • N/A
    • N/A
    • N/A
    • N/A
    • N/A
    • N/A

    *上記サービスの提供状況は、国や地域によって異なる場合があります。

  • ビジネス全体を変革するASUS AIインフラソリューション

    人工知能の未来は、ビジネスアプリケーションや消費者のライフスタイルを急速に変化させています。ASUSの専門性は、ハードウェアとソフトウェアの完璧なバランスを取ることにあり、お客様が独自の研究とイノベーションの努力を促進できるようにします。

  • 質問にお答えします!
    • AIサーバーとは何ですか?
      人工知能の未来のために特別に設計されたコンピュータシステムを想像してみてください。それがAIサーバーです!AIサーバーには、普通のオフィスサーバーとは異なり、極めて複雑な計算をサクサクこなしてAIの威力を発揮させる魔法のようなパワーがあります。
      AIサーバーとは?| ASUSプレスルーム
    • なぜAIサーバーが必要なのですか?
      AIサーバーの必要性は、生成AIやChatGPTのようなツールの普及により、AIの採用が大幅に増加しているために再考されています。しかし、AIサーバーはAIや機械学習モデルの高い計算ニーズを管理するために特別に設計されており、不可欠な存在です。ASUSは競合他社を凌駕し、最先端のAIサーバーシステムだけでなく、スムーズなAI開発プロセスを支援するために必要なカスタマイズされたソフトウェアソリューションも提供しています。
    • AIサーバーと一般サーバーの比較
      • 目的
      • プロセッサー
      • メモリ
      • データ転送
      • コストと消費電力
      • メンテナンスとスケーラビリティの要件
      • AIサーバー
      • 機械学習やディープラーニングのワークロードでの複雑なAIアルゴリズムを処理するために特別に設計されています。
      • AI計算タスクに最適化された高性能なGPUまたはTPUを搭載しています。
      • 大量の高速メモリを使用して大規模なデータセットを迅速に処理します。
      • 高速なI/O機能により、高速なデータの読み書きやストリーミング、高速なネットワーク接続をサポートします。
      • 高いパフォーマンスを実現するための設計により、コストが高くなります。高性能なハードウェアは高い消費電力を伴います。
      • スケーラビリティとソフトウェアの最適化のために、より専門的なメンテナンスが必要な場合があります。ピークパフォーマンスを維持するために最適化が必要です。
      • 一般サーバー
      • ウェブホスティング、アプリケーションサーバー、ファイルストレージなどの一般的なデータ処理とストレージのタスクに対応するために設計されています。
      • 一般的なコンピューティングタスクに適した標準のCPUを搭載しています。
      • メモリの構成は、具体的なニーズに応じて大きく異なります。
      • 一般的なネットワーキングやストレージのニーズに適した標準のI/O機能を備えています。
      • 比較的低い消費電力と低いコストで、一般的な商業市場やアプリケーションをターゲットにしています。
      • 一般的には、メンテナンスの要件は低く、市場で豊富なサポートとサービスオプションが利用可能です。
    • わずか8週間で完全なソフトウェアサービスをどうやって提供するのですか?
      ASUSとその子会社であるTaiwan Web Service Corporation(TWSC)は、クライアント向けにカスタマイズされたソフトウェアソリューションの設計に特化しています。過去のプロジェクトに基づいて、8週間のスケジュールはプロジェクト管理として実現可能ですが、具体的な納期は要件やプロジェクトの範囲によって異なります。

      TWSCは、NVIDIAパートナーネットワーククラウドパートナー(NCP)向けの大規模なAIHPCインフラストラクチャの展開と共同メンテナンスにおいて、広範な経験を持っています。また、National Center for High-performance Computing(NCHC)のTAIWANIA-2(#10 / Green 500、2018年11月)およびFORERUNNER 1(#92 / Green 500、2023年11月)スーパーコンピューターシリーズにも取り組んでいます。さらに、TWSCのAFS PODソリューションは、AIスーパーコンピューティングの迅速な展開と柔軟なモデル最適化を可能にし、ユーザーがAIの需要を自分のニーズに合わせてカスタマイズできるようにします。

      TWSCのAFS PODソリューションは、迅速な展開と包括的なエンドツーエンドのサービスを備えたエンタープライズグレードのAIインフラストラクチャを提供し、高い可用性とセキュリティ基準を確保します。当社のソリューションは、学術、研究、医療機関など、さまざまな分野で成功事例を生み出しています。総合的なコスト管理機能により、電力消費量を最適化し、運用費用(OpEx)を効率化し、TWSCのテクノロジーは信頼性と持続可能性を求める組織にとって魅力的な選択肢となります。

      TWSCについて
      Taiwan Web Service Corporation(TWSC)は、ASUSの子会社であり、AIとクラウドコンピューティングのソリューションに特化しています。AIを活用した高性能コンピューティング(HPC)機能と包括的なクラウドプラットフォームのツールとソリューションを提供し、AIスーパーコンピューターを利用して大規模なアプリケーションを迅速に実行します。世界クラスの専門知識を活用し、TWSCはプロフェッショナルなエンタープライズグレードのジェネラティブAIプラットフォームとサービスを提供し、信頼性のあるオープンソースの大規模言語モデル(LLM)と繁体字中国語向けに強化されたFormosa Foundation Model(FFM)を統合しています。簡単でコードレスの操作により、TWSCのテクノロジーはローカルのエンタープライズアプリケーションをサポートし、AIの民主化と商品化を促進します。クラウドからグラウンドまで、当社の提供するソリューションは、企業のコスト、時間、人材、サイバーセキュリティの懸念を効果的に軽減し、最も包括的かつ最適なソリューションを提供します。

      • TWSCは、2023年のEE Awards Asia Featured Cloud Supplier Corporate Awardを受賞しています。
      • 詳細はこちら: https://tws.twcc.ai/en/
    • AIワークロードを可能にするサーバー構築の準備はできていますか?
      お見積もり、サンプル、デザイン、その他ご質問など、お気軽にお問い合わせください! https://servers.asus.com/jp/support/contact