NVIDIAは10月5日、都内でGPU Technology Conference Japan 2016(GTC Japan)を開催した。GTCは2014年まで、米国と日本など限られた地域でのみ開催されていたが、2015年から中国やEU圏などに範囲を広げ、2016年は、米国で2回、中国、EUとすでに4カ所で開催。日本で5カ所目となる。

基調講演では、NVIDIA創業者でCEOのジェンスン・ファン氏が登場。すでに各地のGTCで発表した内容も含め、近年、同社が傾倒するGPUを使ったディープラーニング技術の紹介や、取り組みを中心に講演を行った。

基調講演を行ったジェンスン・ファン氏

まずファン氏は、コンピューティングの歴史を簡単に振り返る。1995年にインターネット接続が可能になり、10億人のPCユーザーが登場した。さらに2006年からAmazonやYahooのクラウドサービスやスマートフォンなどが登場し、モバイルユーザーは25億人に達した。

そして現在、AI技術やIoTなどにより、さまざまな機器がインターネットに接続しはじめた。この流れは加速し、数千億台のデバイスがインターネットに接続するようになるとファン氏は予測する。同氏がそう考えるのにはわけがある。GPUが可能にするディープラーニングにより、新しい「コンピューティングモデル」が登場し、AI革命が始まるからだ。

ファン氏は「すでにディープラーニングによる"AI革命"の準備が整った」という。ディープラーニングを使った画像認識は、2012年に人が書いたプログラムよりも高い認識率を達成し、現在では、人間よりも画像を正確に認識できるようになった。また、マイクロソフトは、2016年に誤差率6.3%と従来よりも遙かに高い性能をディープラーニングで実現した。

GPUコンピューティングにより、学習や推論性能が向上し、DNN(ディープニューラルネットワーク)は、人間の認識率を超えるなどAI革命の準備が整っているという

こうした中、「NVIDIAは"AIコンピューティングカンパニー"に変貌した」とファン氏は表現する。いまでは「GPUコンピューティング」「ビジュアルコンピューティング」「AI」が同社の注力分野になっているという。

いまやNVIDIAは「AIコンピューティングカンパニー」に変貌を遂げた

GPUディープラーニングは「新しいコンピューティングモデル」

ファン氏は、GPUディープラーニングは「新しいコンピューティングモデル」なのだと説明する。これまで、「サーバー、クライアント」、「クラウド」といったコンピューティングモデルが登場したが、GPUディープラーニングでは、クラウド側にあるデータセンターで大量のデータから学習を行い、ニューラルネットワークを作る。この学習モデルを使って、さまざまな推論を行い、「インテリジェントデバイス」やサービスを構築する。

GPUディープラーニングは、新しいコンピューティングモデルなのだという

「インテリジェントデバイス」はインターネット経由でこれを利用するだけでなく、高性能なものでは、それ自身がニューラルネットワークを実行し動作できる。こうした「インテリジェントデバイス」が、センサーなどにより、大量のデータをクラウド側に送信、これが学習データとなり、さらにニューラルネットワークを進化させる。

精度の高い学習モデルを構築するために、ニューラルネットワークの規模はどんどん大きくなる傾向にある。それに応じて学習に必要な計算パワーも大きくなっていく。例えばMicrosoftの画像認識システムでは、エラー率を3年間で1/4にしたが、一方でモデルのサイズは16倍になり、計算量も同様に増えた。

ディープラーニングでは、性能を向上させるためにモデルを大きくし、より大量の学習データを利用するため、計算量も大きくなっていくという

また、Baiduの音声認識システムでは、当初7,000時間のデータを使っていたが、エラー率を半分にした次世代のシステムでは、学習に必要な処理は10倍と大きく増大した。このようなデータの増大に対応するには、並列処理が可能で、性能向上が早いGPUを利用するしかないという。

"Pascal"でディープラーニングをさらに加速

そこでファン氏は、現在のGPUアーキテクチャである"Pascal"を紹介した。Pascalは、アーキテクチャの改善や16nm FinFETプロセス、広帯域メモリ「HBM2」などの技術を使って高性能を達成したGPUで、4年前に登場した"Kepler"アーキテクチャと比べて、65倍の性能がある。また、数多くのディープラーニング用フレームワークに対応し、学習時間を短縮できる。

Pascalアーキテクチャはディープラーニング向けに最適化されているという

ディープラーニングでは、作成したニューラルネットを使い、クラウド側にアップロードされた大量の画像や音声、動画を日々分析している。このためにも高速な計算が必要になる。こうした用途に対して、NVIDIAが現在提供するのが、科学技術計算用のGPU、Teslaシリーズで、2016年9月に発表されたばかりの新モデルが、「推論処理アクセラレーター」Tesla P4とTeslaP40だ。

どちらもPascalアーキテクチャをベースとしている製品で、P4は50Wで動作し、汎用CPUの40倍のエネルギー効率を実現する。一方でP40は、250Wで動作、汎用CPUの40倍の性能を持つ。Tesla P4、P40は、現行のPascalアーキテクチャだが、推論処理用に新たに8bit整数演算機能を持つ。

Tesla P4とP40は、データセンターなどで推論や学習を行うためのTesla系列のGPU

また、これに合わせ、推論処理を高性能化する「TensorRT」も紹介した。これは、かつてGIE(GPU Inference Engine)と呼ばれていたソフトウェアだが、実行するニューラルネットワークの最適化や、結論を変えない不要な計算の削除、さらに16bit浮動小数点演算を8bit整数演算に変換するなどして処理を高速化するもの。

こうしたシステムのデモとして、動画を絵画風に変換できるアプリ「ARTISTO」による動画変換を披露した。このデモは、ニューラルネットワークを使って、画像をピカソ風にするもの。最初は録画された動画を変換したが、続いて会場を映すカメラの映像をリアルタイムで変換してみせた。

DNNを使うARTISTOで会場を移したリアルタイム動画をピカソ風に変換してみせた