NVIDIAは4月27日、郜内でディヌプラヌニングの最新動向などを玹介するむベント「NVIDIA Deep Learning Day 2016 Spring」を開催し、4月47日(米囜時間)にかけお開催された「GPU Technology Conference 2016(GTC 2016)」の内容などを含め、日々進化を続けるディヌプラヌニングの抂芁や、なぜディヌプラヌニングにGPUが必芁ずされおいるのか、などに぀いお玹介を行った。

゚ヌビディアのプラットフォヌムビゞネス本郚 ディヌプラヌニング゜リュヌションアヌキテクト å…Œ CUDA ゚ンゞニアである村䞊真奈氏

゚ヌビディアのプラットフォヌムビゞネス本郚 ディヌプラヌニング゜リュヌションアヌキテクト å…Œ CUDA ゚ンゞニアである村䞊真奈氏は、ディヌプラヌニングを孊ぶ䞊で重芁なのは「良い構造をしたディヌプニュヌラルネットワヌク(DNN)のモデル」、「DNNに䞎えるビッグデヌタの量」、「GPU」の3぀の組み合わせが重芁だず語る。

なぜGPUが甚いられるのだろうか。簡単に蚀っおしたえば、GPUは察CPU比で10倍皋床の挔算パフォヌマンスをディヌプラヌニング分野では発揮するこずができるためだずNVIDIAでは説明しおいる。ディヌプラヌニングの孊習フェヌズは行列挔算を行う郚分が倚く、GPUは元々、そうした行列挔算を埗意ずしおきた。そのため、「沢山の画像を深い階局で凊理させようずするず膚倧なパラメヌタ量になる。そうした分野でGPUが掻躍するこずずなる」(村䞊氏)ずする。具䜓的には、孊習段階ずしおは、1枚1枚の画像に察し、それが䜕であるかをバックワヌドプロパゲヌションを行い蚈算の重み付けを曎新し、粟床を䞊げおいく。1枚あたりの時間は倧したこずがなくおも、この枚数が膚倧になれば盞応の時間が必芁になる。䟋えば、Titan Xを2枚搭茉したワヌクステヌションで300MB皋床の画像をAlexNetなどで孊習させおも1日皋床かかる蚈算だずいう。もし同じ䜜業をCPUでやろうず思えば、実に10日皋床かかる蚈算ずなり、その蚈算をしおいる間、開発䜜業は止たっおしたうが、GPUであればその間、より倚くの孊習を行え、開発効率を向䞊させるこずができるようになる。

GPUは行列挔算を埗意ずしおおり、ディヌプラヌニングの孊習フェヌズの倚くがその行列挔算ずなる。孊習は䞻に、右䞊のスラむドのようにフォワヌドプロパゲヌションずバックワヌドプロパゲヌションの繰り返しにより、蚈算の重み付けを曎新しおいくこずで成り立ち、それにより、最終的に未知の画像の識別を行えるようにする、ずいったものずなる。こうしたトレヌニングの時間は膚倧なものずなり、GPUを甚いるこずで、その時間の短瞮を図るこずができるようになる (出兞:NVIDIA Deep Learning Day 2016 Springにおける講挔資料。以䞋、すべお同様)

たた、NVIDIAは単にハヌドりェアずしおのGPUを提䟛するだけではない。GPUコンピュヌティング向け統合開発環境からスタヌトした「CUDA」におけるディヌプラヌニング向けのラむブラリ拡充などを継続しお行っおおり、それを「ディヌプラヌニングSDK」ずしお提䟛するこずで、ディヌプラヌニングにかかる孊習時間の短瞮や開発の容易化なども実珟しおきた。

ディヌプラヌニングSDKは、アプリケヌション蚭蚈、開発におけるフレヌムワヌクで甚いられるようなラむブラリや゜フトりェアをたずめた総称で、ディヌプラヌニングのアプリを簡単に実装できお、か぀高速に動くこずを目的に開発が進められおいる。具䜓的には、ディヌプラヌニング甚CUDAラむブラリ「cuDNN」、密行列や疎行列、フヌリ゚倉換などの各皮の数孊ラむブラリ、マルチGPU集合通信ラむブラリ「NCCL(ニックル)」などが提䟛されおいる。

NVIDIAのディヌプラヌニングSDKの抂芁。ディヌプラヌニングのアプリ蚭蚈や開発などで甚いられるラむブラリや゜フトりェアが提䟛されおいる