モルフォは1月24日、東京大学、東北大学、神戸大学が推進する、スーパーコンピュータ(スパコン)「富岳」上での深層学習による「高解像度銀河形成シミュレーション」の高速化プロジェクトに、同社の深層学習推論エンジン「SoftNeuro」を提供した結果、シミュレーションに用いられる推論時間の約19.2倍の高速化および約93%の電力量削減を実現したと発表した。

SoftNeuroは、主要な深層学習フレームワークに対応した深層学習推論エンジンで、汎用的な推論エンジンであるため、画像認識だけでなく、音声認識やテキスト解析などにも利用が可能だという。

そして高解像度銀河形成シミュレーション高速化のためのプロジェクトとは、将来の映像を予測するMemory-In-Memory Network (Wang et al. 2018)をもとに、独自に開発された3D-CNN(3D畳み込みニューラルネットワーク)ベースの深層学習モデルを、SoftNeuroを用いて高速化するというものである。

この深層学習モデルは、銀河形成シミュレーション内の流体計算の一部(超新星爆発の非等方なシェル膨張の予測・タイムスケールの短い粒子の同定)を予測し、ボトルネック解消をサポートするというものだが、これまでは深層学習による推論は実際のシミュレーションで使用できるような速度ではなかったという。それに対し、SoftNeuroが提供され、同モデルが高速化されたことで、銀河形成シミュレーション中で実用可能となったとする。

今回は、実際にどれだけ高速化しているのかという点と、消費電力をどれだけ削減できているのかという点が調べられた。「3D Memory-In-Memory Network」の推論実行において、富岳で標準的に利用が可能な「TensorFlow」を使用した場合と、富岳に最適化させたSoftNeuroを使用した場合との比較が行われた(それぞれ富岳の1ノード、48コアを使用)。

その結果、速度については、1回ずつ実行(1回の実行で1回だけ推論関数を呼ぶ)が5回実施され、測定されたところ、平均の経過時間は、TensorFlowが2820ミリ秒、SoftNeuroが147msとなり、SoftNeuroがTensorFlowの約19.2倍高速であることが示された。

また、5回実施の平均で使用電力量が測定されたところ、TensorFlowは130.0ワット秒、SoftNeuroは8.6Wsであり、SoftNeuroを使用することで約93%の消費電力削減が示されたという。

なお、同社は今後も同プロジェクトとの連携を通じ、富岳における深層学習を用いた高解像度銀河形成シミュレーションのさらなる高速化を支援していくとしている。また、SoftNeuroのさらなる利便性・技術力向上を図り、さまざまなサービスやソリューションへの提供を通じ、グローバルレベルでの技術の発展と豊かな文化の実現に貢献していくとしている。