AIはどのように発達するのか

人工知能にはさまざまなタイプや学習方法があるが、近年話題になっているディープラーニングでは、人間が特定のデータにラベルをつけて正解を教えてやらなくても自分で正解を探してくれるため、人間の仕事だった処理を自動化できるのが最大のメリットだ。ただしこの学習には非常に大きなデータが必要になり、データのやり取りを行うI/O自体がボトルネックとなってしまっている。

現在のシステムではCPUにせよGPUにせよ、プロセッサー(コア)数を増やしていっても、線形的に学習速度は向上してくれない

インテルがNervanaテクノロジーで目指しているのは、メニイコアを前提とした高並列の分散システムへの最適化と、それによるAI処理のスループットの向上だ。GPUを大きく上回る、高速かつ巨大なメモリへのアクセスが可能になることで、コア数あたりの学習速度は線形的に向上するようになる。学習速度が大幅に向上すれば、それだけAIが活躍する場面も増えてくる。インテルの目論見通り、現在の100倍も高速なディープラーニングが可能になれば、現在なら数カ月かかっていたものが1~数日で解決することになる。よりユーザーの位置に近い、学習データを使った推論システムを搭載した機器類(=IoT)も、従来よりはるかに高い水準の性能と改良速度を得られるはずだ。

Xeon Phiでは半年程度の最適化で、最大400倍ものパフォーマンス改善を実現したという。ソフトウェアの改良だけでなく、メニイコアや非常に広いメモリ幅といったハードウェアの特徴があってこその数値だ

なにより、ベースとなる学習速度が高まれば、これまで時間の問題から検証できなかった新しい学習アルゴリズムが発見される可能性もある。演算速度の大幅な向上はAI自体の発展にも予測のできない影響を与える可能性があるわけだ。

ひとつだけ心配するとすれば、インテルはその歴史上、企業買収では失敗しているほうが多い。買収したはいいがその分野を伸ばせずに売却したり、消滅していった製品や企業も数多い。幸い、AIではハードウェアの改良もさることながら、ソフトウェアの最適化や改良も大きなポイントとなっている。

AI分野ではGPUに最適化されたソフトも多いが、主要なソフト類はまだまだインテルアーキテクチャ上で動作するものが大半だ。それらが高速化・最適化によって、何も手を入れない状態で高速に動作するようになるとすれば、開発コストの低減や開発サイクルの高速化に大きく貢献できるはずだ。

難しいことを考えずに導入したハードウェアで、これまでのソフトがそのまま高速に動作する、という状況を計画通りに作り上げることができれば、AI開発におけるインテルプラットフォームの重要性はこれまで以上に増すだろう。AI業界全体の発展のためにも、インテルの思惑がうまく作用することを期待したい。