一方、NVIDIA エンタープライズ事業部の井崎武士事業部長は、「AIの進化を支えるNVIDIAの最新プラットフォーム」と題して講演。

「NVIDIAは、ゲーミング向けのGeForceや、エンタープライズグラフィックス向けのQuadro、HPC向けのTesla、組み込み型のJetsonなど、さまざまなGPUを用意しているが、これらのコアアーキテクチャーはすべて同じであり、組み込み型に開発したものを、サーバでも動作できる。開発ツールも共通で利用でき、ユーザビリティが高いのがNVIDIAの特徴である」と切り出した。

  • NVIDIA エンタープライズ事業部の井崎武士事業部長

NVIDIAには、1万2000人の社員がいるが、約8割がエンジニアであり、そのうち約6割がソフトウェアエンジニアだという。

「ソフトウェアに投資をしているのがNVIDIAの特徴であり、とくに、機械学習や深層学習、HPCといった用途において活用するライブラリの開発に投資をしている。CUDAによるGPUプログラミングを学習しなくても、ライブラリを活用することで、GPUを簡単に利用できる。ここに、深層学習において、NVIDIAが活発に利用されている理由がある」などと述べた。

また、深層学習の進展によって、画像認識や映像認識、音声入力、自然言語処理などの領域での活用が進展。しかも、これらの技術を活用してマネタイズする動きが顕在化していることに触れながら、「深層学習が加速しているのは、DNN(Deep Neural Network)によるアルゴリズムの進化、ニューラルネットワークの精度をあげることができるビッグデータの拡大、そして、最後がこれらを処理するためのコンピューティング能力の向上であり、そこにGPUが大きな役割を果たすことになる」とした。

NVIDIAの最新GPUとして紹介したのが、TESLA V100である。5120個 のCUDAコア、640個のTensorコアを搭載。16 GBと32 GBの構成で使用が可能であり、1つのGPUで100 CPU分の性能を提供するという。さらに、NVIDIA NVLinkにより、毎秒最高300 GBで、複数のV100に接続。世界で最もパワフルなコンピューティングサーバーを構築できるという。

「V100は、画像分類、オブジェクト検出、翻訳といった5つの項目において、世界一の性能を発揮している」(エヌビディアの井崎事業部長)とした。

また、「GPUの性能が高いということは、システム全体のコストセーブにもつながる。たとえば、機械学習を行うために、300ノードのBroadwell CPUサーバを活用した場合には、180kWの消費電力が必要になる。しかし、これと同じ性能を発揮させるには、16個のGPUを搭載したサーバーひとつで足りてしまい、初期投資コストは8分の1になり、電力は10kWと18分の1となり、設置面積は30分の1になる。これはGPUの大きなメリットである」と語った。

さらに、「AIは、推論という活用がこれから増えることになり、それだけで今後5年間に2兆円のビジネス機会があると言われている」と前置きし、この分野に適したGPUとして、TESLA T4を紹介した。

 「TESLA T4は、電力効率がよく、応答性が高いスケールアウトGPUである。新たなTuring Tensorコアを採用し、これを320個搭載。2560個のCUDAコアも搭載している。また、FP32やFP16のほか、INT8、INT4にも対応し、多精度のコンピューティングに対応。精度を下げることで高速化できるという論文などの結果を反映したものになっている」と説明した。 そのほか、各フレームワークから、各ターゲットプラットフォームに最適化するソフトウェアライブラリの「NVIDIA TENSOR RT」、わずか2行のコード追加で3倍の高速化を図る「TENSORコア自動混合精度演算(AMP)」、すぐに実行可能なディープラーニングソフトウェア「NGC(NVIDIA GPU Cloud)コンテナ」、機械学習のワークフローにおいて、CPUによるボトルネックを排除する「DALI」、データサイエンスや機械学習向けのオープンソースGPUアクセラレーションプラットフォームである「RAPIDS」などについても触れた。

「Dell EMC テクニカルセミナー 宮崎キャンプ」は、これまでにも2カ月に一度のペースで開催されており、今後も、テーマを変えながら開催する予定だという。