NVIDIAは5月14日(米国時間)、同日より開催しているオンラインプライベートカンファレンス「GTC2020」において、同社の最新アーキテクチャとなる「Ampere」をベースとしたGPU「NVIDIA A100」を搭載した第3世代のAIシステム「NVIDIA DGX A100」を発表した。

同システムには8基のNVIDIA A100、2基の64コアAMD Roma、6基のNVSwitchや、先般買収を終えたばかりのMellanoxのConnectX-6 HDR 200Gbps ネットワークインタフェースが9つ搭載されており、1ノードで5PFLOPSのAI性能を提供するとのことで、1ラックで5台のDGX A100システムという構成で、AIの学習と推論のためのインフラストラクチャのデータセンターを20分の1の消費電力と25分の1のスペース、 10分の1のコストで置き換えることができるようになるとしている。

  • DGX A100
  • DGX A100
  • DGX A100
  • DGX A100
  • DGX A100
  • DGX A100
  • DGX A100の概要

すでに出荷を開始しており、価格は19万9000ドル。最初の納入先は、米国エネルギー省(DOE)アルゴンヌ国立研究所で、同研究所では、クラスタのAIとコンピューティングパワーを使って新型コロナウイルス感染症(COVID-19)についての研究などを行っていく予定としている。

また、NVIDIA自身も140台のDGX A100システムと170のMellanox HDR 200Gbps InfiniBand インターコネクトを組み合わせた次世代の「DGX SuperPOD」を構築したことも明らかにされた。これは700PFLOPSのAIコンピューティング性能を提供するクラスタながら1カ月弱ほどで構築できたとのことで、同社では顧客が自分たちのデータセンター構築にこのノウハウを活用してもらうためのリファレンスアーキテクチャも公開したという。

なお、DGX A100システムについては、すでにストレージテクノロジプロバイダーのDDN Storage、Dell Technologies、IBM、NetApp、Pure StorageおよびVastが、NVIDIA DGX PODやDGX SuperPODリファレンス アーキテクチャをベースにしたものを含め、自社の製品にDGX A100を組み込む予定だという。

NVIDIA GTC 2020のキーノートにおけるDGX A100の紹介動画