MIT、光を使ったディープラーニングの原理実証-計算時間と消費電力を大幅削減

マサチューセッツ工科大学(MIT)の研究チームは、ディープラーニングに必要とされる複雑で多量の計算を光コンピューティングを使って高速化、低消費電力化する技術を開発したと発表した。まだ概念実証の段階だが、原理的にはディープラーニングの計算時間を大幅に短縮でき、従来のコンピュータに比べて消費電力を1/1000程度にできるという。研究論文は光学分野の専門誌「Nature photonics」に掲載された。

回路基板上に実装されたプログラマブル・ナノフォトニック・プロセッサでディープラーニングを行うイメージ画像(出所:MIT)

ニューラルネットワークに基づくディープラーニング技術は、画像認識や音声認識をはじめ、医療データベースの中から診断に利用できるパターンを見つけ出したり、膨大な化学式を探索して新薬を創出するなど、さまざまな分野で使われるようになってきている。

しかし、膨大なデータサンプルを学習する過程では時間とエネルギーを消費する大量の計算を行う必要がある。ディープラーニングで多用される計算は、主に行列同士の掛け算の繰り返しであるが、こうした演算処理は従来のCPUあるいはGPUには大きな負荷がかかるものとなる。

研究チームは今回、このようなディープラーニングの計算に適した新しいアーキテクチャとして、光を用いたニューラルネットワークシステムを提案。その概念を実証するための実デバイスを開発し、実際にディープラーニングの手法による音声認識実験を行った。

開発されたデバイスは、「プログラマブル・ナノフォトニック・プロセッサ」と呼ばれるもので、相互接続された光導波路を使って計算を行う。光導波路はデバイス形成後に組み替えることができ、必要な計算に合わせてその都度プログラミングする。

具体的には、カスケード接続されたマッハ・ツェンダー干渉計56個の配列をシリコンフォトニクス集積回路上に形成したデバイスであるという。これを交互につないだ層構造を作って、脳内のニューロンの働きに似た非線形活性化関数と呼ばれる演算を行う。

一般的なニューラルネットワークのアーキテクチャでは、入力層と出力層のあいだに多くの隠れ層が存在しているが、論文によると、今回のアーキテクチャでは、光干渉ユニットと非線形光学ユニットからなる光導波路1個1個がこれらの層として機能する。これを使うと、原理的には、行列の乗算をほぼエネルギーゼロで、瞬時に計算できるという。

研究チームのMarin Soljačić教授は、この仕組みを「眼鏡のレンズ」に例えて説明している。光が眼鏡のレンズを通過するときには、複雑なフーリエ変換の計算を行ったのと同じ結果が得られる。ナノフォトニック・プロセッサ内で起こるプロセスはこれがさらに一般化されたものであり、根本的には同様の原理に基づいているという。

研究チームは、プログラマブル・ナノフォトニック・プロセッサを用いて実際にニューラルネットワークを実装し、4つの母音について音声認識させる概念実証実験を行った。初歩的なシステムではあるが、音声認識の精度は77%を達成することができたという。これは従来のシステムで実現されている精度の90%程度の性能である。さらなる精度向上に向けてシステム拡張を行うことについては特に問題ないとしている。

関連キーワード


人気記事

一覧

イチオシ記事

新着記事