現地時間17日から19日開催の「Google I/O 2017」公式Webサイト

17日(現地時間)、Googleは同社が開催中の開発者向けカンファレンス「Google I/O 2017」で、機械学習チップTensor Processing Unit(TPU)のセカンドバージョンを発表した。公式ブログによると、「Cloud TPU」と呼ばれる新TPUは同社のIaaSであるGoogle Compute Engineで利用可能になる。なお、「Cloud TPU Alphaプログラム」は同日からサインアップ可能。

初代TPUは機械学習モデルを効率的に実行するために設計されたが、言語翻訳や碁石の動きを選択するには、個別トレーニングやさらなるボトルネックの改善が必要だったという。第2世代TPUであるCloud TPUでは、最大180TFLOPS(テラフロップ)の浮動小数点演算が可能ながらも、さらなるパフォーマンスを引き出すため、64個の第2世代TPUを搭載する「TPUポッド」を用意。最大11.5PFLOPS(ペタフロップ)の演算を可能する。

機械学習チップTensor Processing Unit(TPU)のセカンドバージョン(以下公式ブログより抜粋)

Googleは市販のGPUを32種類用意し、大規模な翻訳用モデルをトレーニングするまでに1日を要していたが、8分の1の相当するTPUポッドによるトレーニングは午後の数時間で完了したと、処理時間の改善を確認したと説明した。この説明がCloud TPUの性能を正しく示しているかは不明だが、同社はさまざまな仮想マシンに接続し、Skylake CPUやNVIDIA GPUなど異なるタイプのハードウェアと組み合わせて利用可能だとアピールする。また、同社はベストな機械学習システムの構築をCloud TPUの目標として掲げた。なお、機械学習研究者向けには1,000 Cloud TPUまで無償使用できる「TensorFlow Research Cloud」も用意する。

阿久津良和(Cactus)