「GPU Technology Conference 2016(GTC 2016)」は、例年のようにJen-Hsun Huang CEOの基調講演で幕を開けた。ここで、Jen-Hsunが何を喋るかは、NVIDIAのビジネス戦略を理解する上で重要である。

Jen-Hsun Huang CEOは、まず 2012年には2350人であったGTCの出席者が、2016年は5000人と4年で倍増を上回るペースで増えていることを指摘し、Top500スーパーコンピュータ(スパコン)ランキングでも2013年に500位以内にランク入りしたGPUベースのシステムは50システム強であったが、2015年には100システム余りと倍増している。また、CUDAの開発者は2016年には30万人となり、2012年と比べると4倍に増加していると述べ、NVIDIAのCUDA GPUのエコシステムが急速に広がっていることをアピールした。

左から、GTCの参加者数、Top500のGPUシステム数、CUDA開発者数

NVIDIAの開発の概況

そして、次のスライドを示して、「GAMEWORKS」、「VRWORKS」、「DESIGNWORKS」、「COMPUTEWORKS」、「DRIVEWORKS」、「JETPACK」の6分野での開発状況を説明した。最初に説明したゲーム分野では、物理シミュレーションのPhysXと虎の毛の表現、波や炎の表現の改良をアピールした。しかし、売り上げの割にはGAMEWORKSの扱いは小さく、発展が期待される戦略分野とは位置づけられてはいない。

ゲーム分野では物理シミュレーションのPhysXと毛、波、炎の表現の改良をアピールしたが、これに割いた説明時間は短く戦略分野という扱いではなかった

デザイン分野では、レイトレースのIRAYや材料の質感を高精度で表現するプロのデザイナー向けのMDLという画面表現の改善を取り上げたが、これも扱いは小さいものであった。

デザイン関係ではレイトレースや材料の質感を再現するMDLを取りあげた

NVIDIAは次世代の成長の柱は、「AI(Artificial Intelligence、自動運転関係を含む)」と「VR(Virtual Reality)」と見ているようで、基調講演でも長い時間を割いていた。VRの描画は普通の描画であるが、ユーザが顔の向きを変えるとそれに応じてリアルタイムに描画を変更する必要があるという点が異なる。このため、複数GPUを使用するSLIや違和感の無い画像を効率よく描画する技術を開発している。また、Oculus RiftなどのHMD(Head Mount Display)を主要なゲームエンジンに組み込む努力を行っているという。

VRは、ユーザが見ている場所に追随してリアルタイムに描画を変更する必要がある。このため、複数GPUを使用するSLIや違和感の無い画像を効率よく描画する技術を開発している

HPCやDeep LearningなどでのCUDA GPUの躍進を支えているのは。高い計算能力である。そのComputeについてはCUDA 8は6月リリース、cuDNN 5は4月、nvGRAPHは6月、ParaView用のIndexプラグインは5月とリリース予定を発表した。

NVIDIAは、汎用計算用CUDA 8、ディープラーニング用のcuDNN 5、グラフ処理のnvGRAPH、ParaView用のIndexプラグインと各分野のツールやライブラリを充実させている

自動運転はNVIDIAが最も力を入れている分野で、DriveNetというニューラルネットを自社で開発している。DriveNetは共同開発を行うパートナにはすでにリリースされており、アーリーアクセスも今年の第2四半期には始まる予定である。そして2017年の第1四半期には一般公開という予定で進んでいる。

自動運転は最も力を入れている分野で、DriveNetというニューラルネットを開発している。現在は限定されたパートナと共同開発を行っており、2017年第1四半期に一般公開という予定である

JETPACKはJetson TX1を使った装置の開発関係で、Jetson TX1を使ったディープラーニングの認識エンジン(GPU Inference Engine)は5月に提供予定である。また、Jetsonによるメディア処理のJetson Media SDKなども開発されている。

学習済みのニューラルネットを使った認識はJetson TX1などを使って実行する。また、メディア処理のSDKも開発している

NVIDIAのバーチャルリアリティ

NVIDIAはバーチャルリアリティにも力を入れており、GTC 2016の展示ではVRビレッジと言うコーナーを作ってデモを行っていた。これは非常な人気で、デモを体験する予約には長い列ができていた。しかし、デモ初日ではちゃんと動かないものもあり、十分な完成度とはなっていないようであった。

展示会場でのデモはともかく、基調講演ではエベレスト山を訪問するVRと2030年の火星でローバーを操縦して探検を行うというVRのデモを見せた。ただし、基調講演ではHMDは使えないので、インタラクティブな画面ではない。

Jen-Hsun Huang氏は、エベレストのVRを見せた

また、2030年には火星に基地を置き、徒歩やローバーを操縦して基地の近傍を探検するというVRデモを見せた。2枚目の写真のHMDを付けた人物はデモに引っ張り出されたApple-1を開発したSteve Wozniak氏である。

2030年に火星に基地を置き、周囲を探検するVR。この画面では出ていないが、ローバーを操縦してあたりを探検する画面もある

HMDを付けて火星を体験するSteve Wozniak氏と、火星基地の様子。基地の内部や周辺を移動できる

また、VRに関して、「IRAY VR」と「IRAY VR LITE」という技術を紹介した。IRAYはNVIDIAのレイトレーシングのパッケージで、光の反射なども正確に計算して高精度の絵を作ることができる。しかし、レイトレーシングは計算量が膨大で、1画面を作るのに少なくとも数秒、長ければ何分も掛かり、とても顔の向きに追従して絵を変えるVRに使えるようなものではない。

NVIDIAは、リアルタイムでVR画面を作ることができるIRAY VRとその簡易版であるIRAY VR LITEをGTC 2016で発表した。ただし、リアルタイムでレイトレースを行う訳ではなく、あらかじめライトプローブがどうなるかを計算して置き、それを位置情報を使って変形して使うというゲームエンジンなどで使われている手法を使っているとのことである。

レイトレーシングをベースとしたフォトリアルなVR画面を生成できるIRAY VRとIRAY VR LITEを発表